deepfakes
Hoe Italië AI-misbruik in de financiën aan het blokkeren is
Rome, zaterdag, 29 november 2025.
Italië heeft op 27 november 2025 zes websites verboden die AI-bots en deepfakes gebruiken om investeerders te misleiden. De actie, uitgevoerd door de financiële toezichthouder Consob, richt zich op platforms die gekloonde identiteiten—zoals die van een bekende journalist—gebruiken om vertrouwen te creëren en geld te stelen. Het meest verontrustend: de fraudeurs maken gebruik van AI om in real time gefabriceerde interviews, stemmen en video’s te genereren, waardoor het voor gebruikers bijna onmogelijk is om nep te herkennen. Deze maatregel is een directe reactie op een 310% stijging van AI-gebaseerde fraude-aanvallen in het eerste kwartaal van 2025. Italië is nu een van de eerste landen in Europa die een rechtstreekse wetgevingsmaatregel neemt om deze nieuwe vorm van cybercriminaliteit te bestrijden—een stap die wijst op een fundamentele verandering in hoe we online veiligheid moeten aanpakken.
How an Invisible Pulse Makes the Difference in Exposing Fake Videos
rotterdam, dinsdag, 25 november 2025.
Imagine a video of a well-known individual claiming to have said something they never actually said. The solution lies hidden in something you can’t see: an invisible pulse. Dutch forensic researchers are now using a smart technique that analyses subtle colour changes in the face—caused by each heartbeat—to determine whether a video is genuine or an AI-generated deepfake. Most impressively, these movements are too fast and too fine for the naked eye, yet they are perfectly detected by software. It marks a crucial step in the fight against manipulative media, where even the most realistic fake videos can be tested against an undeniable biological marker: life itself.
Comment un pouls invisible fait la différence dans le démasquage des vidéos falsifiées
rotterdam, dinsdag, 25 november 2025.
Imaginez qu’une vidéo d’une personnalité publique affirme qu’elle a dit quelque chose qu’elle n’a jamais dit. La solution se cache dans quelque chose que vous ne voyez pas : un pouls invisible. Des experts en forensic néerlandais utilisent désormais une technique ingénieuse qui analyse des changements subtils de couleur sur le visage – causés par chaque battement de cœur – afin de déterminer si une vidéo est authentique ou une deepfake générée par l’IA. Ce qui est le plus frappant : ces mouvements sont trop rapides et trop fins pour être perçus à l’œil nu, mais sont détectés parfaitement par des logiciels. Il s’agit d’une étape cruciale dans la lutte contre les médias manipulateurs, où même les vidéos falsifiées les plus crédibles peuvent être soumises à un critère incontestable : la vie elle-même.
Hoe een onzichtbare hartslag het verschil maakt bij het ontmaskeren van nepvideo’s
rotterdam, dinsdag, 25 november 2025.
Stel je voor dat een video van een bekende persoon beweert dat hij iets heeft gezegd wat hij nooit heeft gezegd. De oplossing zit verstopt in iets wat je niet ziet: een onzichtbare hartslag. Nederlandse forensische onderzoekers gebruiken nu een slimme techniek die subtiele kleurveranderingen in het gezicht analyseert – veroorzaakt door elke hartslag – om te bepalen of een video echt is of een AI-gegenereerde deepfake. Het meest verbluffende: deze bewegingen zijn te snel en te fijn voor het blote oog, maar worden door software perfect gedetecteerd. Het is een cruciale stap in de strijd tegen manipulatieve media, waarbij zelfs de meest realistische nepvideo’s kunnen worden getoetst aan een onmiskenbaar lichaamskenmerk: het leven zelf.
Why Meta Stopped Its Own Research into Social Media and Mental Health
Dubai, zondag, 23 november 2025.
Last week, on a Sunday, a collective lawsuit revealed that Meta had internally found causal evidence: using Instagram and Facebook worsens depressive symptoms in young people. This long-running research showed that ceasing use led to improved emotional wellbeing within just one week. What most people don’t know: Meta did not halt the study due to lack of evidence, but because the evidence was too damaging. The results were never published, yet documents show executives saw the findings as a threat to the company. Now that the truth has emerged, society is asking: how many other technologies pose dangers we have yet to see?
Pourquoi Meta a arrêté ses propres recherches sur les réseaux sociaux et la santé mentale
Dubai, zondag, 23 november 2025.
La semaine dernière, un lundi, une action collective a révélé qu’au sein de Meta, des preuves causales avaient été trouvées : l’utilisation d’Instagram et de Facebook aggrave les symptômes dépressifs chez les jeunes. Cette étude, menée depuis plusieurs années, démontrait que l’arrêt de l’utilisation des plateformes entraînait une amélioration de bien-être émotionnel en moins d’une semaine. Ce que la plupart des gens ignorent : Meta n’a pas cessé l’étude en raison d’un manque de preuves, mais parce que les preuves étaient trop préjudiciables. Les résultats n’ont jamais été publiés, mais les documents montrent que les dirigeants les ont considérés comme une menace pour l’entreprise. Alors que la vérité émerge, la société se demande : combien d’autres technologies représentent des dangers que nous ne voyons pas encore ?
Waarom Meta haar eigen onderzoek naar sociale media en mentale gezondheid stopte
Dubai, zondag, 23 november 2025.
Vorige week, op een zondag, onthulde een rechtszaak dat Meta intern causaal bewijs had gevonden: het gebruik van Instagram en Facebook verergert depressieve symptomen bij jongeren. Het onderzoek, dat al jarenlang liep, toonde aan dat het stoppen met gebruik al binnen een week leidde tot een verbetering van emotionele welzijn. Wat de meeste mensen niet weten: Meta stopte het onderzoek niet vanwege gebrek aan bewijs, maar omdat het bewijs te schadelijk was. De resultaten werden nooit gepubliceerd, maar de documenten laten zien dat leidinggevenden het zagen als een bedreiging voor het bedrijf. Nu de waarheid naar buiten is gekomen, vraagt de samenleving zich af: hoeveel andere technologieën vormen een gevaar dat we nog niet zien?
How an AI-Generated Video of a Famous Dutch Person Can Steal Your Money
Amsterdam, vrijdag, 21 november 2025.
In November 2025, convincing deepfake videos of prominent Dutch figures, including doctors and public personalities, surfaced on TikTok, used to mislead victims and cause financial harm. Research has revealed that criminals require only a few seconds of audio to clone a voice, and this technology has advanced to such a degree that even familiar faces can no longer be automatically trusted as authentic. The most alarming truth? Those videos you may have seen without realising it were not genuine interviews — but sophisticated deceptions broadcast online to convince you that you were purchasing a solution for health or investments. This is no longer science fiction: be critical, because the line between reality and fabrication is now nearly invisible.
Comment une vidéo générée par IA d'une personnalité néerlandaise connue peut vous voler votre argent
Amsterdam, vrijdag, 21 november 2025.
En novembre 2025, des vidéos deepfake convaincantes de personnalités néerlandaises célèbres, notamment des médecins et des figures publiques, ont fait leur apparition sur TikTok, utilisées pour tromper des victimes et causer des dommages financiers. Selon une enquête révélée, les criminels n’ont besoin que de quelques secondes d’audio pour cloner une voix, et cette technologie est désormais si avancée qu’aucun visage familier ne peut plus être automatiquement considéré comme crédible. La vérité la plus choquante ? Ces vidéos, que vous avez peut-être vues sans le réaliser, n’étaient pas de véritables interviews, mais une manœuvre habile diffusée sur Internet afin de vous convaincre d’acheter une solution pour la santé ou des investissements. Ce n’est plus de la science-fiction : soyez critique, car la frontière entre le réel et le fictif est aujourd’hui presque invisible.
Hoe een AI-gegenereerde video van een bekende Nederlandse persoon uw geld kan stelen
Amsterdam, vrijdag, 21 november 2025.
In november 2025 verschenen op TikTok overtuigende deepfake-video’s van Nederlandse beroemdheden, waaronder artsen en publieke figuren, die werden gebruikt om slachtoffers te misleiden en financiële schade toe te brengen. Wat onthulde onderzoek is dat criminelen slechts enkele seconden audio nodig hebben om een stem te klonen, en dat deze technologie nu zo goed is dat zelfs vertrouwde gezichten niet meer automatisch geloofwaardig zijn. De meest schokkende waarheid? Die video’s, die u misschien hebt gezien zonder het te beseffen, waren geen echte interviews — maar een slimme misleiding die op het internet werd uitgezonden om u te overtuigen dat u een oplossing voor gezondheid of investeringen kocht. Dit is geen sciencefiction meer: kijk kritisch, want de grens tussen echt en nep is vandaag nauwelijks meer te zien.