herkennen
How an Invisible Pulse Makes the Difference in Exposing Fake Videos
rotterdam, dinsdag, 25 november 2025.
Imagine a video of a well-known individual claiming to have said something they never actually said. The solution lies hidden in something you can’t see: an invisible pulse. Dutch forensic researchers are now using a smart technique that analyses subtle colour changes in the face—caused by each heartbeat—to determine whether a video is genuine or an AI-generated deepfake. Most impressively, these movements are too fast and too fine for the naked eye, yet they are perfectly detected by software. It marks a crucial step in the fight against manipulative media, where even the most realistic fake videos can be tested against an undeniable biological marker: life itself.
Comment un pouls invisible fait la différence dans le démasquage des vidéos falsifiées
rotterdam, dinsdag, 25 november 2025.
Imaginez qu’une vidéo d’une personnalité publique affirme qu’elle a dit quelque chose qu’elle n’a jamais dit. La solution se cache dans quelque chose que vous ne voyez pas : un pouls invisible. Des experts en forensic néerlandais utilisent désormais une technique ingénieuse qui analyse des changements subtils de couleur sur le visage – causés par chaque battement de cœur – afin de déterminer si une vidéo est authentique ou une deepfake générée par l’IA. Ce qui est le plus frappant : ces mouvements sont trop rapides et trop fins pour être perçus à l’œil nu, mais sont détectés parfaitement par des logiciels. Il s’agit d’une étape cruciale dans la lutte contre les médias manipulateurs, où même les vidéos falsifiées les plus crédibles peuvent être soumises à un critère incontestable : la vie elle-même.
Hoe een onzichtbare hartslag het verschil maakt bij het ontmaskeren van nepvideo’s
rotterdam, dinsdag, 25 november 2025.
Stel je voor dat een video van een bekende persoon beweert dat hij iets heeft gezegd wat hij nooit heeft gezegd. De oplossing zit verstopt in iets wat je niet ziet: een onzichtbare hartslag. Nederlandse forensische onderzoekers gebruiken nu een slimme techniek die subtiele kleurveranderingen in het gezicht analyseert – veroorzaakt door elke hartslag – om te bepalen of een video echt is of een AI-gegenereerde deepfake. Het meest verbluffende: deze bewegingen zijn te snel en te fijn voor het blote oog, maar worden door software perfect gedetecteerd. Het is een cruciale stap in de strijd tegen manipulatieve media, waarbij zelfs de meest realistische nepvideo’s kunnen worden getoetst aan een onmiskenbaar lichaamskenmerk: het leven zelf.
Can You Still Tell What’s Real? This Is the Uncomfortable Truth About AI Images in the Netherlands
Nederland, dinsdag, 18 november 2025.
Do images on social media sometimes feel off? It’s not your imagination: 71% of Dutch people can no longer tell the difference between a genuine photograph and a fully AI-generated image. Even more concerning? 81% of AI-generated images were judged as real. This points to a profound shift in how we trust information—and why media literacy is now essential citizenship. In an era where AI surrounds us daily, this demands not only new skills but also transparency in how images are created and shared. What does this mean for your trust in what you see?
Peux-tu encore distinguer le réel du faux ? Voici la vérité gênante sur les images générées par l'IA en Hollande
Nederland, dinsdag, 18 november 2025.
T’as déjà eu l’impression que certaines images sur les réseaux sociaux te paraissaient étranges ? Ce n’est pas une impression : 71 % des Hollandais ne parviennent plus à faire la différence entre une vraie photo et une image entièrement générée par une intelligence artificielle. Ce qui est le plus inquiétant ? 81 % des images générées par l’IA ont été jugées authentiques. Cela révèle un changement profond dans la manière dont nous accordons notre confiance aux informations — et pourquoi l’éducation médiatique est devenue une compétence essentielle de citoyenneté. À une époque où l’IA nous entoure au quotidien, cela ne demande pas seulement de nouvelles compétences, mais aussi une transparence accrue dans la création et la diffusion des images. Que signifie tout cela pour ta confiance dans ce que tu vois ?
Kun je nog zien wat echt is? Dit is de ongemakkelijke waarheid over AI-beelden in Nederland
Nederland, dinsdag, 18 november 2025.
Laat je afbeeldingen op social media soms vreemd voelen? Het is geen misvatting: 71% van de Nederlanders kan geen verschil meer maken tussen een echte foto en een volledig door AI gegenereerde afbeelding. Het meest verontrustende? Van alle AI-beelden werd 81% als echt beoordeeld. Dit wijst op een diepe verandering in hoe we informatie vertrouwen — en waarom mediawijsheid nu essentiële burgerschap is. In een tijd waarin AI ons dagelijks omringt, vraagt dit niet alleen om nieuwe vaardigheden, maar ook om transparantie in de manier waarop beelden worden gemaakt en verspreid. Wat betekent dit voor jouw vertrouwen in wat je ziet?
Why AI Systems Sometimes Go Wrong Without You Noticing
online, woensdag, 12 november 2025.
A recent study reveals a startling fact: large AI models can make dangerous errors, even in the absence of explicit instructions. The core of the problem lies in uncontrolled trust between different stages of an automation process. This leads to unintended responses, while the AI believes everything is functioning correctly. It is no longer just about what the AI says, but how it thinks—and that can go wrong without any warning. The solution? A new architecture that demands proof at every step, backed by a system that continuously monitors operations. This marks a fundamental shift in how we use AI, especially in sensitive domains such as journalism, healthcare, and policy-making.
Pourquoi les systèmes d'IA échouent parfois sans que l'on s'en rende compte
online, woensdag, 12 november 2025.
Une étude récente révèle un fait troublant : les grands modèles d’IA peuvent commettre des erreurs dangereuses, même en l’absence d’une instruction claire. Le cœur du problème réside dans la confiance non maîtrisée entre différentes étapes d’un processus d’automatisation. Cela entraîne des réactions involontaires, tandis que l’IA croit que tout fonctionne correctement. Il ne s’agit plus seulement de ce que l’IA dit, mais de la manière dont elle pense — et cela peut mal tourner sans qu’aucune alerte ne soit déclenchée. La solution ? Une nouvelle architecture qui soumet toutes les étapes à une obligation de preuve, avec un système de surveillance continue. Cela implique un changement fondamental dans la manière dont nous utilisons l’IA, en particulier dans des domaines sensibles tels que le journalisme, la santé et la politique.
Waarom AI-systemen soms fout gaan zonder dat je het merkt
online, woensdag, 12 november 2025.
Een recent onderzoek onthult een schokkend feit: grote AI-modellen kunnen gevaarlijke fouten maken, zelfs zonder dat er een duidelijke opdracht is. De kern van het probleem ligt in het ongecontroleerde vertrouwen tussen verschillende stappen van een automatiseringsproces. Dit leidt tot onbedoelde reacties, terwijl de AI denkt dat alles in orde is. Het is niet meer alleen een kwestie van wat de AI zegt, maar hoe het denkt — en dat kan verkeerd gaan zonder dat er een waarschuwing is. De oplossing? Een nieuwe architectuur die alles onder dwang van bewijs laat, met een systeem dat continu controleert. Dit betekent een grondige verandering in hoe we AI gebruiken, vooral in gevoelige domeinen zoals nieuws, gezondheidszorg en beleid.
Why Your AI Response About Women Often Reflects a Stereotype
Amsterdam, maandag, 10 november 2025.
AI-powered tools such as chatbots and image generators frequently reproduce sexist patterns – not due to a technical flaw, but because of the people who provide the data. Research from 2025 shows that over 74% of AI outputs in gender-related contexts display clear stereotypes, such as portraying women solely as caregivers and men as technical experts. The root cause? AI is not a neutral machine, but a mirror reflecting historical societal inequalities. What is ironic is that the more we strive for fairness in AI, the clearer it becomes that we must define the values we wish to see. This requires not only technical solutions, but also the courage to discuss ethics, culture, and power.
Pourquoi la réponse de l'IA sur les femmes est souvent stéréotypée
Amsterdam, maandag, 10 november 2025.
Les outils basés sur l’intelligence artificielle, tels que les chatbots et les générateurs d’images, reproduisent fréquemment des schémas sexistes – et ce n’est pas dû à un défaut technique, mais aux humains qui fournissent les données. Une étude de 2025 révèle que plus de 74 % des sorties d’IA dans des contextes liés au genre montrent des stéréotypes explicites, comme représenter les femmes uniquement comme des soignantes ou les hommes comme des experts techniques. La cause ? L’IA n’est pas une machine neutre, mais un miroir des inégalités sociales du passé. Ce qui est étrange : plus nous souhaitons que l’IA soit équitable, plus il devient clair que nous devons nous-mêmes définir les valeurs que nous voulons voir apparaître. Et cela exige non seulement des solutions techniques, mais aussi le courage de parler d’éthique, de culture et de pouvoir.
Waarom uw AI-antwoord over vrouwen vaak een stereotype is
Amsterdam, maandag, 10 november 2025.
AI-gebaseerde tools zoals chatbots en afbeeldingsgeneratoren herhalen vaak seksistische patronen – en dat komt niet door een technisch defect, maar door de mensen die de data leveren. Onderzoek uit 2025 toont aan dat ruim 74% van de AI-uitvoer in gendergerelateerde contexten duidelijke stereotypen weergeeft, zoals vrouwen alleen als zorgverleners of mannen als technische experts. De oorzaak? AI is geen neutrale machine, maar een spiegel van de maatschappelijke onevenwichten uit het verleden. Wat vreemd is: hoe meer we willen dat AI eerlijk is, hoe duidelijker het wordt dat we zelf de waarden moeten bepalen die we willen zien. En dat vraagt niet alleen technische oplossingen, maar ook moed om over ethiek, cultuur en macht te praten.