Une IA persuade un vieillard que son fils a renversé une femme, lui volant 22 000 euros

Index

Une IA persuade un vieillard que son fils a renversé une femme, lui volant 22 000 euros

Dans une affaire qui soulève de sérieuses inquiétudes sur la sécurité des systèmes d'intelligence artificielle (IA), un vieillard a été victime d'une escroquerie sophistiquée. Un système d'IA a réussi à le convaincre que son fils avait été impliqué dans un accident de la circulation, renversant une femme, et qu'il devait verser 22 000 euros pour couvrir les frais de réparation. Cette histoire choquante met en lumière les vulnérabilités des personnes âgées face aux arnaques en ligne et soulève des questions sur la nécessité d'une réglementation plus stricte des systèmes d'IA.

Témoinage choc : une IA persuade un vieillard que son fils a tué une femme enceinte

Les capacités de l'intelligence artificielle (IA) pour cloner n'importe quelle voix sont bien connues. Cependant, cette technologie peut être utilisée à des fins malhonnêtes, comme l'a découvert un vieillard américain qui a été victime d'une estafa sanglante.

Anthony, qui a préféré garder son nom de famille anonyme, a reçu un appel de son fils, qui lui a expliqué avoir été impliqué dans un accident de voiture et avoir tué une femme enceinte. Mais ce qui semblait être la voix de son fils était en réalité une voix clonée par une IA.

« C'était sa voix. C'était absolument sa voix. Il n'y avait aucun doute », a expliqué Anthony.

Comment fonctionne une estafa avec IA

Comment fonctionne une estafa avec IA

Moins de deux minutes après avoir cru parler à son fils, Anthony a reçu un appel de son soi-disant avocat, Michael Roberts, qui lui a dit qu'il devait obtenir 9 200 dollars le plus rapidement possible pour sortir son fils de prison. Sinon, il passerait 45 jours derrière les barreaux.

Anthony a essayé d'appeler son fils, mais il n'a obtenu que le répondeur. Il a donc supposé que son fils était en prison.

Le vieillard est allé à la banque pour retirer l'argent, en disant qu'il voulait installer des panneaux solaires à son domicile. Il ne voulait pas éveiller les soupçons.

C'est sa fille qui a appelé l'avocat escroc. Celui-ci a envoyé un Uber pour récupérer l'argent.

La fille découvre la supercherie

La fille découvre la supercherie

La fille a vérifié que l'Uber avait un numéro de licence légal, mais elle n'a pas pu voir l'avocat en personne. Elle a peut-être eu peur.

Les conducteurs d'Uber ne sont généralement pas au courant de la supercherie. Ils reçoivent simplement un appel pour récupérer un enveloppe et c'est ce qu'ils font.

La supercherie a continué. Quelques heures plus tard, un second avocat, Mark Cohen, a appelé Anthony pour lui dire que la femme enceinte était décédée à l'hôpital, ce qui signifiait que la caution atteignait 25 000 dollars.

Les victimes, bloquées, ont fait une deuxième remise d'argent. Jusqu'à ce que la fille cherche des informations sur Internet et découvre que c'était une estafa avec IA.

Comment les ciberdelincuentes ont obtenu la voix du fils

La police explique que les ciberdelincuentes ont obtenu quelques secondes de la voix réelle du fils d'Anthony, peut-être à partir d'une vidéo qu'il avait mise en ligne sur les réseaux sociaux ou en l'appelant sur son portable sans qu'il ne réponde.

Avec juste quelques mots, comme « Qui est-ce ? » ou « Qui êtes-vous ? », l'IA peut cloner la voix et dire n'importe quelle phrase avec le même ton.

C'est ainsi qu'Anthony a reçu un message audio qui lui faisait croire que son fils avait tué une femme enceinte.

La clé de l'affaire est de savoir pourquoi le fils n'a pas répondu aux appels de son père pendant toutes ces heures. La police n'a pas confirmé, mais il est possible que les ciberdelincuentes aient volé le téléphone du fils pour qu'il ne puisse pas recevoir d'appels.

Une estafa cruelle basée sur l'angustia

Ce type d'estafa, basé sur l'angoisse causée par un accident ou un enlèvement, fonctionne depuis des années. Mais avant, les escrocs utilisaient des personnes qui imitaient des voix ou se limitaient à des messages texte. Maintenant, avec l'IA, tout est plus réaliste et plus facile à faire.

Le vieillard a perdu 23 000 euros de manière cruelle, en croyant que son fils avait tué une femme enceinte. La voix modifiée par l'IA a été la clé pour que la supercherie fonctionne.

Conseil : Il est important de rester vigilant face à ce type d'estafa et de vérifier soigneusement l'identité de la personne qui vous appelle.

Alain Laurent

Je suis Alain, un expert en technologie sur la page web Info Général. En tant que contributeur de ce journal généraliste, j'analyse l'actualité technologique avec rigueur et objectivité. Mon objectif est d'informer et de guider les lecteurs à travers les dernières tendances et innovations du monde de la technologie. À travers mes articles, je m'efforce de fournir des informations pertinentes et fiables pour aider chacun à rester à jour dans ce domaine en constante évolution.

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Go up