AIJB

misleiding

How an AI voice can undermine your reputation – and what's happening now

How an AI voice can undermine your reputation – and what's happening now

2025-12-03 nepnieuws

Amsterdam, woensdag, 3 december 2025.
Imagine a video of a well-known scientist claiming that a major research project is being scrapped, despite never having said such a thing. This happened last week in the Netherlands – and it was no accident. A theft of original material via a phishing email led to a highly sophisticated deepfake that was viewed over 12,000 times. What is alarming is that even digital forensics experts found it difficult to detect the manipulation. These incidents demonstrate that AI-driven deception is no longer a distant future scenario but a real threat to scientific integrity and public trust. The complaint filed by scientists Erik Scherder and Diederik Gommers is a clear warning: we must learn to identify what is real faster – before the truth vanishes into the digital noise.

Comment une voix générée par IA peut compromise votre réputation – et ce qui se passe maintenant

Comment une voix générée par IA peut compromise votre réputation – et ce qui se passe maintenant

2025-12-03 nepnieuws

Amsterdam, woensdag, 3 december 2025.
Imaginez : une vidéo d’un scientifique célèbre affirmant qu’un projet de recherche majeur est annulé, alors qu’il n’a jamais dit cela. C’est exactement ce qui s’est produit la semaine dernière aux Pays-Bas – et ce n’était pas un accident. Un vol de matériel original via un courrier électronique de phishing a conduit à une deepfake soigneusement fabriquée, vue plus de 12 000 fois. Ce qui est inquiétant : même des experts en forensic numériques ont eu du mal à détecter la manipulation. Ces incidents montrent que la désinformation basée sur l’IA n’est plus un scénario futuriste, mais une menace réelle pour l’intégrité scientifique et la confiance du public. La déclaration des scientifiques Erik Scherder et Diederik Gommers constitue un avertissement clair : nous devons apprendre plus rapidement à distinguer le vrai du faux – avant que la vérité ne disparaisse dans le bruit numérique.

Hoe een AI-voice je reputatie kan ondermijnen – en wat er nu gebeurt

Hoe een AI-voice je reputatie kan ondermijnen – en wat er nu gebeurt

2025-12-03 nepnieuws

Amsterdam, woensdag, 3 december 2025.
Stel je voor: een video van een bekende wetenschapper die beweert dat een belangrijk onderzoeksproject wordt afgeblazen, terwijl hij dat nooit heeft gezegd. Dat gebeurde vorige week in Nederland – en het was geen ongeluk. Een diefstal van origineel materiaal via een phishing-e-mail leidde tot een diepgeklopte deepfake die meer dan 12.000 keer werd bekeken. Wat verontrustend is: zelfs digitale forensisch experts vonden de manipulatie moeilijk te herkennen. Deze incidenten tonen aan dat AI-gebaseerde misleiding niet langer een toekomstbeeld is, maar een reële bedreiging voor wetenschappelijke integriteit en publieke vertrouwen. De aangifte van wetenschappers Erik Scherder en Diederik Gommers is een duidelijke waarschuwing: we moeten sneller leren herkennen wat echt is – voordat de waarheid verdwijnt in de digitale herrie.

Deepfakes Misused to Promote Dubious Weight Loss Pills

Deepfakes Misused to Promote Dubious Weight Loss Pills

2025-09-28 nepnieuws

amsterdam, zondag, 28 september 2025.
AI expert Bart van der Sloot warns against deepfakes where well-known Dutch faces such as Diederik Gommers and Marion Koopmans are used to endorse miracle pills. These forgeries can lead to distrust in the media and public misinformation. According to Van der Sloot, soon 90% of online content will be manipulated, making it increasingly difficult to distinguish between real and fake.

Les deepfakes utilisés pour faire la promotion de pilules minceur douteuses

Les deepfakes utilisés pour faire la promotion de pilules minceur douteuses

2025-09-28 nepnieuws

amsterdam, zondag, 28 september 2025.
L’expert en IA Bart van der Sloot met en garde contre les deepfakes dans lesquels des visages néerlandais célèbres tels que Diederik Gommers et Marion Koopmans sont utilisés pour louanger des pilules miracles. Ces fausses représentations peuvent entraîner un manque de confiance dans les médias et tromper le public. Selon Van der Sloot, bientôt 90 % du contenu en ligne sera manipulé, rendant de plus en plus difficile la distinction entre vrai et faux.

Deepfakes misbruikt om bekende gezichten te laten promoveren twijfelachtige afslankpillen

Deepfakes misbruikt om bekende gezichten te laten promoveren twijfelachtige afslankpillen

2025-09-28 nepnieuws

amsterdam, zondag, 28 september 2025.
AI-expert Bart van der Sloot waarschuwt voor deepfakes waarin bekende Nederlandse gezichten zoals Diederik Gommers en Marion Koopmans worden gebruikt om wonderpillen aan te prijzen. Deze vervalsingen kunnen leiden tot wantrouwen in de media en misleiding van het publiek. Volgens Van der Sloot zal binnenkort 90% van online content gemanipuleerd zijn, wat het onderscheiden van echt en nep steeds moeilijker maakt.