Cette semaine, un nouveau type d’escroquerie a provoqué une véritable inquiétude parmi les experts en cybersécurité. Des individus se faisant passer pour des hackers utilisent la technologie d’intelligence artificielle pour imiter la voix d’un proche de la victime afin de communiquer via WhatsApp et solliciter des virements frauduleux.
Un témoignage viral qui suscite des interrogations
Un enregistrement vidéo est devenu viral sur les réseaux sociaux, mettant en scène une prétendue victime située au Mexique. Des médias de ce pays, tels qu’El Universal, ont relayé l’histoire d’un utilisateur de TikTok qui a averti ses abonnés concernant cette méthode suspecte d’escroquerie sur WhatsApp.
Des éléments troublants dans la vidéo
Cependant, plusieurs éléments de la vidéo soulèvent des doutes quant à sa véracité, ce qui a conduit à un débat intense sur les réseaux sociaux. Dans le clip, l’utilisateur montre comment sa mère lui envoie des messages vocaux pour lui demander un virement de 3 000 pesos, soit environ 150 dollars.
Bien qu’il reconnaisse que la voix ressemble à celle de sa mère, il affirme que celle-ci est en réalité générée par une intelligence artificielle, car elle se trouve à côté de lui, niant avoir envoyé les messages en question.
Une escroquerie plus complexe que prévue
La prétendue victime joue le jeu avec l’escroc potentiel et l’informe qu’elle va transférer l’argent sur le même compte qu’à l’accoutumée. La réponse qu’elle reçoit est une demande de changement de compte, avec comme excuse le fait qu’elle n’a pas sa carte de paiement.
Ce phénomène soulève des questions sur la sécurité numérique. Il est légitime de penser que la technologie peut être exploitée à des fins malveillantes, notamment par des cybercriminels. Bien que la clonage de voix soit techniquement réalisable, ces escroqueries ciblées restent relativement rares dans le paysage de la cybersécurité.
Un avertissement pour les utilisateurs des réseaux sociaux
Un autre point à considérer est que dans la vidéo, le contact de la prétendue victime est enregistré sous le nom de « maman », ce qui pourrait suggérer que l’escroquerie réelle concerne le clonage du compte plutôt que de la voix.
Il est possible que les messages vocaux soient effectivement produits par une intelligence artificielle, mais il semble que la véritable intention derrière cette vidéo vienne de la prétendue victime elle-même.
Le risque majeur est que de telles escroqueries sont bel et bien possibles. L’utilisateur de TikTok, peut-être sans le réaliser, a offert une opportunité aux véritables fraudeurs numériques pour affiner leurs techniques.