AI-technologie misbruikt om Marco Rubio te vervalsen en diplomaten te bedriegen
washington, woensdag, 9 juli 2025.
Het ministerie van Buitenlandse Zaken waarschuwt Amerikaanse diplomaten voor een oplichter die AI-technologie gebruikte om de stem van staatssecretaris Marco Rubio te imiteren. De valse Rubio heeft contact opgenomen met ten minste drie buitenlandse ministers, een gouverneur en een congreslid. Dit incident benadrukt de groeiende bedreiging van AI-geleide impersonatie in de politieke arena en wordt onderzocht door de FBI en het ministerie van Buitenlandse Zaken.
Ministerie van Buitenlandse Zaken waarschuwt voor AI-geleide impersonatie
Het ministerie van Buitenlandse Zaken heeft een waarschuwing uitgevaardigd aan Amerikaanse diplomaten over pogingen om staatssecretaris Marco Rubio en mogelijk andere officieren te vervalsen met behulp van AI-technologie. Een oplichter heeft AI-software gebruikt om de stem van Rubio te imiteren en contact op te nemen met regeringsfunctionarissen. Deze valse Rubio heeft contact opgenomen met ten minste drie buitenlandse ministers, een gouverneur en een congreslid, waarbij de doelen waren om informatie of toegang tot accounts te verkrijgen [1][2][3].
Details van het incident
Volgens een kabel die op last donderdag werd verzonden naar alle Amerikaanse ambassades en consulaten, heeft de oplichter een Signal-account gecreëerd met de display name marco.rubio@state.gov. De impersonator heeft tekstberichten en stemberichten gestuurd, waarbij hij probeerde om gevoelige informatie of toegang tot accounts te verkrijgen. De State Department heeft bevestigd dat ze hiervan op de hoogte zijn en het incident serieus nemen [3][4].
Eerdere incidenten en FBI-waarschuwingen
Dit incident volgt op eerdere pogingen om Amerikaanse overheidsfunctionarissen te vervalsen. In mei 2025 waarschuwde de FBI al voor een campagne die AI gebruikte om hoge Amerikaanse overheidsfunctionarissen te impersoneren. Een ander voorbeeld is de deepfake van Rubio in de lente van 2025, waarin hij vermeendelijk wilde stoppen met de levering van Starlink-internetservice aan Oekraïne [1][4].
Implicaties voor mediageletterdheid en democratie
Deze incidenten benadrukken de groeiende bedreiging van AI-geleide impersonatie in de politieke arena. Siwei Lyu, een professor en computerwetenschapper aan de Universiteit van Buffalo, merkte op dat de realistische kwaliteit van deepfakes sterk is toegenomen. “Het is een armenrace, en nu hebben de generatoren de bovenhand,” zei Lyu [1]. Dit heeft ernstige implicaties voor mediageletterdheid en democratie, waarbij het publiek steeds moeilijker kan onderscheiden wat echt is en wat niet.
Praktische tips om nepnieuws te herkennen
Om de verspreiding van nepnieuws en AI-geleide impersonatie te bestrijden, bieden experts en autoriteiten enkele praktische tips aan voor lezers:
- Verifieer de bron: Controleer altijd de authenticiteit van berichten en informatie door meerdere betrouwbare bronnen te raadplegen.
- Zoek naar onregelmatigheden: Let op subtiele fouten in taalgebruik, timing of context die kunnen wijzen op vervalsing.
- Gebruik technologische hulpmiddelen: Er zijn verschillende tools en platforms beschikbaar die helpen bij het detecteren van deepfakes en valse informatie.
- Blijf op de hoogte: Volg updates van betrouwbare nieuwsbronnen en autoriteiten die gericht zijn op de bestrijding van nepnieuws.
- Wees kritisch: Ontwikkel een kritische blik en vraag jezelf af of het bericht logisch en consistent is [1][2][3][4].