Criminelen gebruikten AI om de stem van de bedrijfsdirecteur te klonen en $ 35 miljoen te stelen

click fraud protection

De politie in de Verenigde Arabische Emiraten onderzoekt een zaak waarin AI zou zijn gebruikt om de stem van een bedrijfsleider te klonen en stelen $ 35 miljoen in een enorme overval. Hoewel het een verbluffende en ongebruikelijke misdaad is, is het niet de eerste keer dat fraudeurs hun toevlucht nemen tot op AI gebaseerde voice-spoofing om gedurfde overvallen uit te voeren. Een eerder voorbeeld van het gebruik van dergelijke technologie voor een soortgelijke zwendel dateert uit 2019, wanneer criminelen in het VK worden gezegd om deepfake-software te hebben gebruikt om de stem van de CEO van een energiebedrijf na te bootsen om op frauduleuze wijze rond te zenden $243,000.

Hoewel wordt verwacht dat kunstmatige intelligentie een golf van kansen openen de komende jaren zijn de dreigingen van de technologie ook zeer reëel. Door automatisering veroorzaakt banenverlies wordt vaak beschouwd als het meest urgente probleem met AI, maar de technologie stelt ook serieuze uitdagingen op andere gebieden, waaronder privacybedreigingen door de 

ongebreideld gebruik van gezichtsherkenning, evenals audio- en videodeepfakes die zijn gemaakt door stemmen en gelijkenissen te manipuleren. Terwijl de eerste de neiging heeft om aandacht te krijgen in de reguliere media, vormt de laatste ook een ernstige bedreiging, zoals blijkt uit deze fraudezaken.

Zoals gemeld door Forbes, het laatste geval van gemanipuleerde stem die werd gebruikt voor fraude, vond begin 2020 plaats in de VAE, toen criminelen zou AI hebben gebruikt om de stem van een bedrijfsleider te klonen om een ​​bankmanager te vragen geld over te maken ter waarde van $ 35 miljoen voor een acquisitie. De bankdirecteur deed de overschrijvingen naar behoren in de overtuiging dat alles legitiem was, om later te beseffen dat het een uitgebreide zwendel was die was ontworpen door hightech criminelen. Het bleek dat de oplichters 'deep voice'-technologie hadden gebruikt om de manager te bedriegen en de bank het enorme bedrag af te troggelen.

De VAE vraagt ​​de Amerikaanse autoriteiten om hulp

Volgens een gerechtsdocument, zoeken de onderzoekers in de VAE nu hulp van de Amerikaanse autoriteiten om $ 400.000 aan gestolen geld op te sporen dat volgens hen op Amerikaanse bankrekeningen staat. De rest van de fondsen wordt verondersteld te zijn opgeslagen bij veel verschillende banken onder verschillende namen in verschillende landen over de hele wereld. Volgens de autoriteiten van de VAE zijn minstens zeventien mensen betrokken bij de regeling, hoewel hun namen en nationaliteiten niet meteen duidelijk waren.

Praten met Forbes, zei Jake Moore, een expert bij cyberbeveiligingsbedrijf ESET: audio en video 'deepfake' technologie kan een echt probleem zijn in de handen van de verkeerde mensen, met deepfakes poseren "een enorme bedreiging voor data, geld en bedrijven." Moore voegde er ook aan toe dat een groter aantal bedrijven waarschijnlijk het slachtoffer zal worden van soortgelijke realistische deepfake audio oplichting in de toekomst.

Bron: Forbes

De beste manieren om Fortnite te spelen zonder geld uit te geven