Oplichter gebruikt deepfake-gezicht in live-videogesprek: 6 ton gestolen

deepfake oplichting ai kunstmatige intelligentie videobellen stem gezicht
23 mei om 14:44

Een oplichter heeft volgens de Chinese politie geavanceerde AI-technologie gebruikt om tijdens een videogesprek live het gezicht en de stem van een vriend van het slachtoffer overtuigend na te bootsen. De crimineel maakte zo'n zes ton buit. Waarschuwingen over de deepfake-oplichting worden massaal gedeeld op Chinese sociale media.

De oplichter gebruikte AI-software voor een face-swap - het vervangen van zijn gezicht door een nepversie - en zette die in tijdens een live-videogesprek met het slachtoffer via WeChat. De crimineel deed zich zo overtuigend voor als een vriend van het slachtoffer dat de man ruim 600.000 euro overmaakte. Dat meldde de politie in de Chinese stad Baotou maandag.

Het slachtoffer, een hoge manager bij een technologiebedrijf in de stad Fuzhou, dacht dat zijn 'vriend' een aanbetaling moest doen in een biedingsproces voor een project in een andere stad. Hij maakte daarom het grote bedrag over, zegt de politie.  De man besefte pas later dat hij was opgelicht toen hij de vriend in kwestie sprak en die zei dat hij helemaal niets wist van de situatie.

"De oplichter sprak via een videocall en zijn gezicht en stem leken op die van de vriend. Daardoor was ik niet waakzaam genoeg", zei het slachtoffer tegen Chinese media. De politie heeft intussen een groot deel van het gestolen geld weer teruggevonden.

Waarschuwingen massaal gedeeld

Cybercriminelen gebruiken al langer AI-technieken om mensen om te lichten, maar ze doen dat vooral met nagemaakte stemmen aan de telefoon en met korte nepvideo's. Face-swap-technologie tijdens live-videogesprekken werd nog minder vaak ingezet, omdat het nog niet overtuigend genoeg was.

De Chinese politie waarschuwde mensen maandag voor deze vorm van zwendel. Alvorens geld over te maken moeten mensen volgens de politie altijd de identiteit van de andere persoon via meerdere communicatiekanalen controleren.

Het incident leidde tot een enorme stroom van bezorgde berichten over de gevaren van dit soort AI-technieken op Chinese sociale media zoals Weibo. Berichten met gerelateerde hashtags over 'de explosie van oplichting via AI' werden volgens Reuters binnen een dag al ruim 120 miljoen keer bekeken. Face-swap-apps zijn overigens in China sinds 2019 officieel verboden, nadat destijds zo'n app al viral was gegaan.  

Nagemaakte stemmen

Eerder dit jaar waarschuwde de Amerikaanse toezichthouder FTC ook al voor oplichting door criminelen die aan de telefoon met AI-software de stem van familieleden van slachtoffers nabootsten. Het lijkt dan alsof bijvoorbeeld een kleinkind aan de lijn is. 

AI-software heeft inmiddels nog maar een paar seconden van iemands stem nodig om die overtuigend te kunnen namaken. 

Luister ook onze podcast over AI-stemmen:

<iframe style="width:100%;max-width:660px;overflow:hidden;border-radius:10px" width="300" height="175" frameBorder="0"></iframe>