AIJB

Hoe een eenvoudige video scan het vertrouwen in nieuws kan redden

Hoe een eenvoudige video scan het vertrouwen in nieuws kan redden
2025-12-02 herkennen

Amsterdam, dinsdag, 2 december 2025.
Stel je voor dat een video die je online ziet, niet echt is — maar een AI-gemaakte creatie. Reality Defender lanceert RealScan, een tool die binnen seconden detecteert of een beeld, video of audio is opgeknoopt. De meest opvallende functie? Het kan zelfs onnatuurlijke oogbewegingen of stemtoonafwijkingen onderscheiden, waardoor een foto van drie mensen met 93% waarschijnlijkheid als gefakeerd wordt geïdentificeerd. Bedoeld voor journalisten, overheden en media, helpt RealScan bij het herkennen van nepinhoud tijdens sensibele momenten, zoals verkiezingen. De tool is beschikbaar via een webinterface en levert duidelijke rapporten die ook juridisch bruikbaar zijn. In een tijd waarin AI-generatie van fake content snel groeit, biedt RealScan een essentieel middel om de waarheid te beschermen — zonder dat je technisch expert hoeft te zijn.

RealScan: de digitale detectiefunctie tegen AI-gegenereerde nepinhoud

Reality Defender heeft op dinsdag, 2 december 2025, de webapplicatie RealScan gelanceerd, een tool die binnen seconden deepfakes in tekst, beeld en video kan detecteren. De tool is ontwikkeld voor journalisten, overheden en mediaorganisaties die gevoelig zijn voor manipulatie van digitale inhoud, met name tijdens gevoelige gebeurtenissen zoals verkiezingen of rampen [1]. RealScan werkt via een eenvoudige drag-and-drop-interface, waarbij gebruikers video- of audiobestanden kunnen uploaden, of zelfs URL’s van online content kunnen scannen om authenticiteit te controleren [1]. De tool analyseert geüploade inhoud met behulp van meerdere AI-gebaseerde detectiemodellen die fysieke en gedragsmatige inconsistenties analyseren, zoals onnatuurlijke oogbewegingen, onregelmatige lipbewegingen of afwijkingen in stemtoon en spraakpatronen [1]. In een test geüploade foto van drie mensen werd een 93% waarschijnlijkheid van manipulatie vastgesteld, waarbij de analyse details over detectiemethoden en specifieke aangepaste gebieden in de afbeelding opleverde [1]. Een uitgebreid rapport wordt automatisch gegenereerd, inclusief een authenticiteitsscore van laag tot kritiek, en kan worden gedownload voor interne of juridische doeleinden [1].

Toegankelijkheid en abonnementsmodellen voor diverse gebruikersgroepen

RealScan is beschikbaar via een SaaS-webplatform en vereist een account voor gebruik, wat de toegang beperkt tot geregistreerde gebruikers [1]. Er zijn twee abonnementsvormen beschikbaar. Het ‘Analyst’-pakket kost 399 dollar per maand (ongeveer 350 euro), of 319 dollar per maand (ongeveer 275 euro) bij een jaarabonnement [1]. Dit pakket geeft toegang tot maximaal 250 scans per maand en tot drie gebruikers, met chat-support en toegang tot uitgebreide resultatenrapporten [1]. Voor grotere organisaties is er een Enterprise-abonnement beschikbaar, dat onbeperkt aantal gebruikers toestaat, gespecialiseerde support via Zoom, Teams of Webex, en een dedicated customer success manager [1]. Deze modellen zijn ontworpen om zowel kleine redacties als grote overheidsinstellingen te ondersteunen bij het beheer van risico’s rond nepinhoud [1].

De technologie achter RealScan: hoe AI op AI wordt ingezet

De detectie van deepfakes door RealScan is gebaseerd op het gebruik van meerdere geavanceerde AI-algoritmen die zijn getraind op grote datasets van zowel geauthenticeerde als manipuleerde media [1]. De software identificeert subtiele afwijkingen die menselijk oog over het hoofd ziet, zoals oneffenheden in huidtextuur, onnatuurlijke schaduwvormen, of onregelmatige lipbewegingen tijdens spraak [1]. Bij audioanalyse wordt de stemtoon, de frequentie, de amplitude en de timing van klanken gecontroleerd op afwijkingen die wijzen op AI-generatie [1]. De tool gebruikte in zijn testversie een combinatie van modellen, waaronder die die zijn ontwikkeld om oogbewegingen te analyseren en audio-voorafgaande signaaltiming te detecteren, wat essentieel is voor het herkennen van diepgeleerde manipulaties [1]. Hoewel de technologie zeer geavanceerd is, vermeldt het bedrijf geen exacte specificaties over de modelarchitectuur of het aantal trainingstijdperken, wat een mogelijke beperking is voor volledige transparantie [1].

De voortdurende uitdaging: de wapenwedloop tussen creatie en detectie

De snelheid waarmee AI-generatieve tools evolueren, creëert een continue uitdaging voor detectietools zoals RealScan. Terwijl RealScan momenteel een 93% detectieaccuratesse rapporteert voor een specifieke testfoto, is het onduidelijk of deze score zich houdt bij nieuwe generaties van deepfakes die op basis van verbeterde modellen zoals GANs of diffusion models (zoals die bij Stable Diffusion of OpenAI’s Sora worden gebruikt) worden gemaakt [1]. OpenAI heeft recent haar richtlijnen rond deepfakes aangescherpt na kritiek uit Hollywood, wat aantoont dat zelfs grote technologiebedrijven bewust zijn van de risico’s van AI-generatie [1]. Toch blijft het een veld waarin creatieve tools zich sneller ontwikkelen dan detectiemodellen kunnen bijbenen. Als een nieuwe AI-technologie het vermogen heeft om realistische oogbewegingen of stemtoonafwijkingen te simuleren zonder vingerafdrukken, zou dit de efficiëntie van RealScan kunnen verlagen [1]. De vraag is of het detectieproces in de toekomst altijd achterhaald zal blijven, of dat een lage-latentie-systeem met continue updates en real-time feedback nodig is om de balans te behouden [1].

De rol van technologische verantwoordelijkheid in de publieke communicatie

RealScan is bedoeld om vertrouwen in informatie te behouden, vooral in contexten waarom het gaat om verkiezingen, publieke veiligheid of juridische bewijzen [1]. De tool levert rapporten die juridisch bruikbaar zijn, wat belangrijk is voor overheden en media die bewijs moeten leveren tegen nepinhoud [1]. De tool is geïntegreerd in werkwijzen van grote organisaties, zoals overheidsinstanties die identiteitsfraude of desinformatieproeven moeten voorkomen [1]. De rol van RealScan gaat dus verder dan technische detectie: het draagt bij aan een cultureel verantwoordelijkheidsgevoel binnen de informatiemaatschappij. Door een toegankelijke tool te bieden, verlaagt het het barrièren voor het gebruik van detectietechnologie door niet-experts, wat essentieel is voor bredere bescherming van de waarheid [1].

Bronnen