Hoe Google-advertenties nepnieuws van de echte kranten nabootsen
Nederland, dinsdag, 9 december 2025.
Laatste week werd duidelijk: nepnieuws via Google-advertenties lijkt zo realistisch op echte artikelen van AD en NU.nl dat veel lezers het niet van de echte versie kunnen onderscheiden. De techniek achter deze vervalsingen maakt gebruik van geavanceerde AI om niet alleen tekst, maar ook opmaak en stijl te imiteren. Het meest verontrustende is dat deze aanpak op grote schaal wordt gebruikt, vooral om kwetsbare groepen te misleiden. Het risico is niet alleen misinformatie, maar ook een groeiend wantrouwen in alle media. De vraag is: hoe kun je nog weten wat je leest, als zelfs de vorm van een nieuwsartikel niet meer te vertrouwen is?
Hoe Google-advertenties nepnieuws van de echte kranten nabootsen
Laatste week werd duidelijk: nepnieuws via Google-advertenties lijkt zo realistisch op echte artikelen van AD en NU.nl dat veel lezers het niet van de echte versie kunnen onderscheiden. De techniek achter deze vervalsingen maakt gebruik van geavanceerde AI om niet alleen tekst, maar ook opmaak en stijl te imiteren. Het meest verontrustende is dat deze aanpak op grote schaal wordt gebruikt, vooral om kwetsbare groepen te misleiden. Het risico is niet alleen misinformatie, maar ook een groeiend wantrouwen in alle media. De vraag is: hoe kun je nog weten wat je leest, als zelfs de vorm van een nieuwsartikel niet meer te vertrouwen is. Op 2025-12-06 kwam naar voren dat Google-advertenties nepnieuws bevatten dat lijkt op berichten van AD en NU.nl, wat de technologie van AI-generatie in de verspreiding van nepnieuws verder ondersteunt [2]. Deze advertenties gebruiken AI om de opmaak, stijl en tekst van betrouwbare media te imiteren, waardoor de inhoud opvallend lijkt op echte artikelen [2]. Dit maakt het voor gebruikers bijna onmogelijk om het onderscheid te maken tussen echte en gefakeerde nieuwsberichten, zeker wanneer de inhoud op een gerichte manier wordt aangeboden via online advertentieplatformen zoals Google [2]. De combinatie van AI-generatie en doelgerichte advertentieplatformen maakt het mogelijk om nepnieuws op grote schaal aan te bieden, vooral bij kwetsbare groepen zoals oudere consumenten en jongeren die minder ervaring hebben met digitale media [2][3]. In een recent onderzoek werd vastgesteld dat 1 op de 5 jongeren weleens is opgelicht door een nepwebshop, wat wijst op een groeiend gevaar van digitale misinformatie onder jonge gebruikers [2]. De technologie is toegankelijk en snel te implementeren, wat de uitbreiding van misinformatie in de digitale ruimte versnelt [2]. Cybercriminelen misbruiken Google Nieuws voor oplichting, waaronder nepnieuws en fraude, wat aantoont dat de platformen zelf ook worden gemanipuleerd [2]. De Nederlandse overheid maakt veel meer gebruik van AI dan een jaar geleden, wat de complexiteit van het probleem verder verhoogt, omdat AI ook in de bestrijding van deze vervalsingen wordt ingezet [3].
De rol van AI in het genereren en ontmaskeren van nepnieuws
AI speelt een dubbele rol in het digitale landschap: enerzijds is het een krachtig middel voor het genereren van nepnieuws, anderzijds helpt het bij het detecteren en bestrijden van misinformatie. Geavanceerde technieken zoals generative adversarial networks (GANs) en variational autoencoders (VAEs) worden gebruikt om synthetische media te creëren, waaronder diepgezichten (deepfakes), die zowel video’s als audio kunnen manipuleren [4]. In 2025 zijn 93% van sociale media-video’s synthetisch gegenereerd door AI, wat wijst op een enorme verspreiding van AI-gegenereerde inhoud [5]. Deze technologie is zo geavanceerd dat het moeilijk wordt om op basis van visuele of auditieve signalen te bepalen of een video echt is [4]. De techniek is toegankelijk geworden voor het brede publiek, met tools zoals Stable Diffusion die het mogelijk maken om portretten van beroemdheden te genereren, zoals een portret van actrice Sydney Sweeney [4]. In mei 2025 ontwikkelde het Nederlandse bedrijf Xicoia, een divisie van Particle6, een AI-generatie actrice genaamd Tilly Norwood, wat aantoont dat AI niet alleen wordt ingezet voor vervalsingen, maar ook voor creatieve toepassingen in de entertainmentsector [4]. Toch blijft het gevaar van misinformatie groot: een enkel Medicare-fraudecampagne gebruikte deepfake-advertenties die meer dan 195 miljoen keer werden bekeken op YouTube, Facebook en TikTok, wat wijst op de schaal waarop AI wordt ingezet voor oplichting [4]. Aan de andere kant worden er ook AI-tools ontwikkeld om nepnieuws te detecteren. De Deepfake Detection Challenge, georganiseerd door een coalitie van technologiebedrijven, leverde een winnende model op met 65% nauwkeurigheid op een testset van 4.000 video’s [4]. Een team van de University of Buffalo ontwikkelde een techniek die reflecties van licht in de ogen gebruikt om deepfakes te detecteren zonder AI-detectietools [4]. Onderzoek van de UCLA toont aan dat 47,3% van het internetinformatie van 2003 al onbetrouwbaar was, wat aangeeft dat het probleem van misinformatie oud is, maar dat AI het versneld heeft [5]. Er zijn ook juridische maatregelen: in het Verenigd Koninkrijk is het onder de Online Safety Act 2023 illegaal om deepfakes te maken, en het land plannen uitbreiding van de wet in 2024 om dieper ingrijpende schade te straffen [4]. In China is het verplicht om deepfakes duidelijk te labelen, en mislukking wordt als een misdrijf beschouwd [4]. In Nederland wordt de ACM strenger optreden tegen oplichting via doorschakeldiensten, wat de rol van regelgevers in het bestrijden van AI-gebaseerde fraude benadrukt [2].
Praktische tips voor lezers om nepnieuws te herkennen
Om het risico van het geloven in nepnieuws te verminderen, zijn er concrete stappen die lezers kunnen nemen om betrouwbaarheid te beoordelen. De eerste stap is het controleren van de bron: niet alleen de naam van de website, maar ook of het een erkende nieuwsorganisatie is. Websites die nepnieuws verspreiden, kopiëren vaak de opmaak van echte kranten zoals AD en NU.nl, maar hun domeinnaam is vaak afwijkend of bevat woorden als ‘news’, ‘update’ of ‘info’ [2]. Gebruikers kunnen tools zoals NewsGuard, DBUNK en Oigetit Fake News Filter gebruiken om de vertrouwenswaarde van nieuwswebsites te beoordelen [6]. NewsGuard biedt betrouwbaarheidsbeoordelingen voor nieuwswebsites op basis van criteria zoals transparantie, bronnen en fact-checking [6]. DBUNK is een app die gebruikers helpt om nieuws te fact-checken via een eenvoudige interface [6]. Bovendien is het belangrijk om de inhoud kritisch te lezen: let op ongeloofwaardige claims, dramatische taal, of een te perfecte structuur die te veel lijkt op een advertentie [2]. Bij twijfel is het raadzaam om de informatie te kruischecken via een andere betrouwbare bron. Een belangrijke tip is het vertrouwen op het eigen ‘onderbuikgevoel’ – als iets te mooi of te angstaanjagend lijkt, is het vaak nepnieuws [2]. De politie waarschuwt: ‘Hang direct op’ bij telefoontjes die fraude voorspellen, zoals namens PayPal of banken [2]. In een recent initiatief van NU.nl wordt gevraagd: ‘Praat mee: Hoe herken jij nepnieuws?’ om mediageletterdheid te bevorderen [2]. Onderzoek toont aan dat 67% van Amerikanen nepnieuws op sociale media ontmoeten, en dat 49% van wereldwijde nieuwsconsumenten minder persoonlijke informatie online onthullen vanwege wantrouwen [5]. Dit benadrukt het belang van kritisch denken en digitale medialettering. Een gebruiker op Japan Today merkte op: ‘In a year or two it will be impossible to spot fake photos or videos. So we will be back in the 19th century, when people had to trust their newspaper editors.’ [5]. In dat kader is het essentieel om je eigen ‘BS detector’ te ontwikkelen door informatie te kruischecken met primaire bronnen en raw data [5]. De media zetten zich ook in: media sturen een brandbrief naar techbedrijven met de waarschuwing dat techbedrijven de democratie ernstig bedreigen [3]. Het is dus niet langer alleen de verantwoordelijkheid van de techbedrijven, maar ook van elk individu om verantwoord met informatie om te gaan.