AIJB

deepfakes

Comment une simple vidéo peut sauver la confiance dans les actualités

Comment une simple vidéo peut sauver la confiance dans les actualités

2025-12-02 herkennen

Amsterdam, dinsdag, 2 december 2025.
Imaginez qu’une vidéo que vous voyez en ligne n’est pas authentique — mais une création générée par une intelligence artificielle. Reality Defender lance RealScan, un outil capable de détecter, en quelques secondes, si une image, une vidéo ou un enregistrement audio a été manipulé. La fonction la plus remarquable ? Il peut identifier des mouvements oculaires anormaux ou des dérives dans le timbre de voix, permettant ainsi d’identifier une photo de trois personnes comme étant falsifiée avec une probabilité de 93 %. Conçu pour les journalistes, les autorités publiques et les médias, RealScan aide à repérer les contenus falsifiés lors d’événements sensibles, comme les élections. L’outil est disponible via une interface web et génère des rapports clairs, pouvant être utilisés à des fins juridiques. À une époque où la génération d’informations fausses par l’IA progresse rapidement, RealScan constitue un outil essentiel pour protéger la vérité — sans nécessiter de compétences techniques avancées.

Hoe een eenvoudige video scan het vertrouwen in nieuws kan redden

Hoe een eenvoudige video scan het vertrouwen in nieuws kan redden

2025-12-02 herkennen

Amsterdam, dinsdag, 2 december 2025.
Stel je voor dat een video die je online ziet, niet echt is — maar een AI-gemaakte creatie. Reality Defender lanceert RealScan, een tool die binnen seconden detecteert of een beeld, video of audio is opgeknoopt. De meest opvallende functie? Het kan zelfs onnatuurlijke oogbewegingen of stemtoonafwijkingen onderscheiden, waardoor een foto van drie mensen met 93% waarschijnlijkheid als gefakeerd wordt geïdentificeerd. Bedoeld voor journalisten, overheden en media, helpt RealScan bij het herkennen van nepinhoud tijdens sensibele momenten, zoals verkiezingen. De tool is beschikbaar via een webinterface en levert duidelijke rapporten die ook juridisch bruikbaar zijn. In een tijd waarin AI-generatie van fake content snel groeit, biedt RealScan een essentieel middel om de waarheid te beschermen — zonder dat je technisch expert hoeft te zijn.

Why you're probably missing a fake news story, even if you think you've spotted it

Why you're probably missing a fake news story, even if you think you've spotted it

2025-12-01 herkennen

Amsterdam, maandag, 1 december 2025.
A recent study reveals that Dutch people generally place excessive trust in their ability to detect online fraud — despite consistently failing to do so in practice. Most strikingly, over half of the respondents were convinced they could identify a fraudulent attempt, while the research shows people are actually poor at distinguishing between real and fake content. This gap between self-perception and reality is one of the biggest challenges in the fight against disinformation. In an era when AI-generated deepfakes and images are becoming increasingly realistic, critical thinking is essential — because the line between truth and manipulation is blurring every day.

Pourquoi vous manquez probablement un faux article d'actualité, même si vous pensez le reconnaître

Pourquoi vous manquez probablement un faux article d'actualité, même si vous pensez le reconnaître

2025-12-01 herkennen

Amsterdam, maandag, 1 december 2025.
Une étude récente révèle que les Néerlandais ont une confiance excessive dans leur capacité à détecter la désinformation en ligne — alors qu’en réalité, ils échouent souvent. Ce qui est le plus troublant : plus de la moitié des répondants sont convaincus de repérer une tentative de fraude, alors que l’étude démontre que les individus se révèlent en réalité très mauvais pour distinguer le vrai du faux. Ce fossé entre perception subjective et réalité constitue l’une des plus grandes difficultés dans la lutte contre la désinformation. À une époque où les textes et images générés par l’IA deviennent de plus en plus réalistes, il est essentiel de rester critique — car la frontière entre vérité et manipulation s’estompe chaque jour un peu plus.

Waarom u waarschijnlijk een nepnieuwsbericht mist, zelfs als u denkt dat u het herkent

Waarom u waarschijnlijk een nepnieuwsbericht mist, zelfs als u denkt dat u het herkent

2025-12-01 herkennen

Amsterdam, maandag, 1 december 2025.
Een recent onderzoek laat zien dat Nederlanders gemiddeld veel te vertrouwen hebben in hun vermogen om online oplichting te herkennen — terwijl ze in werkelijkheid vaak falen. Het meest verbluffende: meer dan de helft van de respondenten is ervan overtuigd dat ze een fraudepoging herkennen, terwijl het onderzoek aantoont dat mensen in feite slecht zijn in het onderscheid maken tussen echt en nep. Deze kloof tussen zelfperceptie en werkelijkheid is een van de grootste uitdagingen in de strijd tegen desinformatie. In een tijd waarin AI-gegenereerde diepteksten en beelden steeds realistischer worden, is het essentieel om kritisch te blijven — want de grens tussen waarheid en manipulatie vervaagt elke dag meer.

How an AI-Generated Voice Stole a Million Euros

How an AI-Generated Voice Stole a Million Euros

2025-11-30 nepnieuws

amsterdam, zondag, 30 november 2025.
Recently, a German bank was robbed via a voice on a phone call that sounded perfectly authentic, generated by AI. The theft of €1.2 million occurred because even experienced bank staff could not distinguish between the real voice of a senior executive and the meticulously crafted deepfake. This is not an isolated incident: between 2024 and 2025, the threat of financial fraud using AI-generated deepfakes in the Netherlands rose by 340%. The technology has now advanced to a point where even sector experts cannot always detect the deception. The question is no longer whether it can happen, but when the next victim will fall. The solution lies not only in technology, but also in strengthened digital literacy and faster collaboration between institutions—such as the new EU taskforce, which must develop a detection system within 90 days.

Comment une voix générée par IA a pu voler un million d'euros

Comment une voix générée par IA a pu voler un million d'euros

2025-11-30 nepnieuws

amsterdam, zondag, 30 november 2025.
Récemment, une banque allemande a été victime d’un vol par téléphonie, grâce à une voix générée de manière artificielle qui sonnait parfaitement naturelle. Le vol de 1,2 million d’euros a pu se produire parce que même des employés bancaires expérimentés n’ont pas pu distinguer la voix réelle d’un cadre supérieur de la deepfake parfaitement ajustée. Ce n’est pas une exception : entre 2024 et 2025, la menace de fraude financière liée à la génération d’images et de sons deepfake par IA a augmenté de 340 % aux Pays-Bas. La technologie est désormais si avancée que même des experts du secteur ne la reconnaissent pas toujours. La question n’est plus de savoir si cela peut arriver, mais quand le prochain victim sera pris. La solution ne réside pas uniquement dans la technologie, mais dans une sensibilisation numérique renforcée et une coopération plus rapide entre institutions, comme la nouvelle task force européenne qui doit développer un système de détection en moins de 90 jours.

Hoe een AI-gegenereerde stem een miljoen euro kon stelen

Hoe een AI-gegenereerde stem een miljoen euro kon stelen

2025-11-30 nepnieuws

amsterdam, zondag, 30 november 2025.
Laatst werd een Duitse bank bestolen via een stemdie op een AI-gegenereerde manier volmaakt klonk op een telefoontje. De diefstal van 1,2 miljoen euro kwam tot stand omdat zelfs ervaren bankmedewerkers geen onderscheid konden maken tussen de echte stem van een topmanager en de afgestemde deepfake. Dit is geen uitzondering: tussen 2024 en 2025 is de dreiging van financiële fraude met AI-generatie van deepfakes in Nederland met 340% gestegen. De technologie is nu zo geavanceerd dat zelfs experts in de sector het niet altijd herkennen. De vraag is niet langer of het kan, maar wanneer het volgende slachtoffer valt. De oplossing ligt niet alleen in technologie, maar in een versterkte digitale geletterdheid en een snelere samenwerking tussen instellingen, zoals de nieuwe EU-taskforce die binnen 90 dagen een detectiesysteem moet ontwikkelen.

How Italy Is Blocking AI Abuse in Finance

How Italy Is Blocking AI Abuse in Finance

2025-11-29 nepnieuws

Rome, zaterdag, 29 november 2025.
On 27 November 2025, Italy banned six websites that used AI bots and deepfakes to mislead investors. The action, carried out by the financial regulator Consob, targeted platforms that exploited cloned identities—such as those of a well-known journalist—to build trust and steal money. Most alarming: fraudsters are using AI to generate fabricated interviews, voices, and videos in real time, making it nearly impossible for users to detect deception. This measure is a direct response to a 310% increase in AI-based fraud attacks in the first quarter of 2025. Italy is now one of the first countries in Europe to adopt a direct legislative response to this emerging form of cybercrime—a move signaling a fundamental shift in how we must approach online security.

Comment l'Italie bloque le détournement de l'IA dans les finances

Comment l'Italie bloque le détournement de l'IA dans les finances

2025-11-29 nepnieuws

Rome, zaterdag, 29 november 2025.
L’Italie a interdit, le 27 novembre 2025, six sites web utilisant des bots d’IA et des deepfakes pour tromper les investisseurs. Cette action, menée par l’autorité de surveillance financière Consob, cible des plateformes qui exploitaient des identités clonées — telles que celles d’un journaliste connu — pour susciter la confiance et voler de l’argent. Ce qui est le plus inquiétant : les fraudeurs utilisent l’IA pour générer en temps réel des interviews, des voix et des vidéos fabriquées, rendant presque impossible pour les utilisateurs de détecter la supercherie. Cette mesure constitue une réponse directe à une augmentation de 310 % des attaques frauduleuses basées sur l’IA au premier trimestre 2025. L’Italie devient ainsi l’un des premiers pays d’Europe à adopter une mesure législative directe pour lutter contre cette nouvelle forme de cybercriminalité — un pas qui reflète un changement fondamental dans la manière dont nous devons aborder la sécurité en ligne.