Des criminels ont utilisé l'IA pour cloner la voix du directeur de l'entreprise et voler 35 millions de dollars

click fraud protection

La police des Émirats arabes unis enquête sur une affaire dans laquelle l'IA aurait été utilisée pour cloner la voix d'un directeur d'entreprise et voler 35 millions de dollars dans un cambriolage massif. Bien qu'il s'agisse d'un crime étonnant et inhabituel, ce n'est pas la première fois que des fraudeurs ont recours à l'usurpation de voix basée sur l'IA pour réaliser des braquages ​​audacieux. Un exemple précédent d'utilisation d'une telle technologie pour une arnaque similaire remonte à 2019, lorsque des criminels au Royaume-Uni sont déclarés avoir utilisé un logiciel deepfake pour se faire passer pour la voix du PDG d'une entreprise d'énergie pour transférer frauduleusement autour $243,000.

Alors que l'intelligence artificielle devrait ouvrir une vague d'opportunités dans les années à venir, les menaces posées par la technologie sont également bien réelles. Les pertes d'emplois provoquées par l'automatisation sont souvent considérées comme le problème le plus urgent avec l'IA, mais la technologie pose également de sérieux défis dans d'autres domaines, y compris les menaces à la vie privée par le 

utilisation généralisée de la reconnaissance faciale, ainsi que des deepfakes audio et vidéo créés en manipulant des voix et des ressemblances. Alors que le premier a tendance à attirer l'attention des médias grand public, le second constitue également une grave menace, comme en témoignent ces cas de fraude.

Tel que rapporté par Forbes, le dernier cas de voix manipulée utilisée à des fins de fraude s'est produit aux Émirats arabes unis au début de 2020, lorsque des criminels aurait utilisé l'IA pour cloner la voix d'un directeur d'entreprise afin de demander à un directeur de banque de transférer des fonds d'une valeur de 35 millions de dollars pour un acquisition. Le directeur de la banque a dûment effectué les virements en croyant que tout était légitime, pour se rendre compte plus tard qu'il s'agissait d'une arnaque élaborée conçue par des criminels de haute technologie. Il s'est avéré que les escrocs avaient utilisé la technologie de la « voix profonde » pour duper le gestionnaire et escroquer la banque du montant énorme.

Les Émirats arabes unis demandent de l'aide aux autorités américaines

Selon un acte judiciaire, les enquêteurs des Émirats arabes unis demandent maintenant l'aide des autorités américaines pour retrouver 400 000 $ de fonds volés qui, selon eux, sont détenus sur des comptes bancaires américains. On pense que le reste des fonds est stocké dans de nombreuses banques différentes sous différents noms dans divers pays du monde. Selon les autorités des Émirats arabes unis, au moins dix-sept personnes sont impliquées dans le programme, bien que leurs noms et nationalités ne soient pas immédiatement clairs.

Parler à Forbes, Jake Moore, un expert de la société de cybersécurité ESET, a déclaré que technologie audio et vidéo « deepfake » peut être un vrai problème entre les mains des mauvaises personnes, avec des deepfakes posant "une énorme menace pour les données, l'argent et les entreprises." Moore a également ajouté qu'un nombre accru d'entreprises sont susceptibles d'être victimes de deepfake réaliste escroqueries audio à l'avenir.

La source: Forbes

Les meilleures façons de jouer à Fortnite sans dépenser d'argent