AIJB

Hoax-video van orka-aanval op Jessica Radcliffe gaat viraal op TikTok

Hoax-video van orka-aanval op Jessica Radcliffe gaat viraal op TikTok
2025-08-13 nepnieuws

amsterdam, woensdag, 13 augustus 2025.
Een video die een orka-aanval op marine bioloog Jessica Radcliffe toont, blijkt een nepvideo te zijn. Het item ging wijdverspreid op TikTok en toont hoe gemakkelijk AI kan worden gebruikt om overtuigende hoaxes te creëren. Experten bevestigen dat de video AI-generatie is en dat er geen echteJessica Radcliffe bestaat. De video combineert AI-stemmen met archiefbeelden en maakt gebruik van emotionele details zoals menstruatiebloed om meer impact te hebben. Dit voorval benadrukt de noodzaak van snellere moderatie en duidelijke labeling van AI-generatie inhoud door sociale mediaplatformen.

Hoax-video van orka-aanval op Jessica Radcliffe gaat viraal op TikTok

Een video die een orka-aanval op marine bioloog Jessica Radcliffe toont, blijkt een nepvideo te zijn. Het item ging wijdverspreid op TikTok en toont hoe gemakkelijk AI kan worden gebruikt om overtuigende hoaxes te creëren. Experten bevestigen dat de video AI-generatie is en dat er geen echte Jessica Radcliffe bestaat. De video combineert AI-stemmen met archiefbeelden en maakt gebruik van emotionele details zoals menstruatiebloed om meer impact te hebben. Dit voorval benadrukt de noodzaak van snellere moderatie en duidelijke labeling van AI-generatie inhoud door sociale mediaplatformen [1][2].

De verspreiding van het hoax-video

Het hoax-video van de orka-aanval op Jessica Radcliffe werd op 7 augustus 2025 geüpload op TikTok en ging snel viraal. De video gebruikte elementen uit echte orka-incidenten, zoals de dood van Alexis Martínez in 2009 en Dawn Brancheau in 2010, om de geloofwaardigheid te versterken. Deze techniek maakt het moeilijker voor kijkers om de video als nep te herkennen [3][4].

Impact op sociale media en de publieke opinie

De verspreiding van het hoax-video heeft vragen opgeworpen over de controle van platformen op nepnieuws in het tijdperk van AI. Negatieve en spurious virale videos leiden vaak tot hoge engagement en views, wat ten goede komt aan advertentie-inkomsten. Coltan Scrivner, een onderzoeker, legt uit dat mensen zich aangetrokken voelen tot negatieve nieuwsberichten vanwege hun beschermingsinstincten en de neiging om te leren van potentiële bedreigingen [1][5].

AI in de verspreiding en bestrijding van nepnieuws

AI speelt een dubbele rol in de verspreiding en bestrijding van nepnieuws. Terwijl AI-technologie wordt gebruikt om overtuigende hoaxes te genereren, zoals in het geval van het Jessica Radcliffe-video, worden ook AI-tools ontwikkeld om nepnieuws te detecteren. Platforms zoals TikTok en Facebook beschikken over technologie om nepvideos te identificeren, maar blijven worstelen met het effectief tegengaan van desinformatie [1][2][6].

Implicaties voor mediageletterdheid en democratie

Het gemak waarmee AI hoaxes kan genereren heeft ernstige implicaties voor mediageletterdheid en democratie. Herhaalde blootstelling aan desinformatie kan valse overtuigingen versterken, bekend als het ‘illusory truth’-effect. Fact-checkers en analisten pleiten voor snellere moderatie en duidelijke labeling van AI-generatie inhoud om de verspreiding van nepnieuws te beperken [2][3][5].

Praktische tips voor lezers om nepnieuws te herkennen

Om de verspreiding van nepnieuws te bestrijden, kunnen lezers de volgende praktische tips toepassen:

  1. Verifieer virale videos door te controleren bij betrouwbare nieuwsbronnen.
  2. Gebruik reverse image/video searches om te controleren of beelden elders zijn gebruikt.
  3. Zoek naar tekenen van manipulatie, zoals onnatuurlijke bewegingen of geluiden.
  4. Wees kritisch en vraag jezelf af of het verhaal logisch is en of er betrouwbare bronnen zijn die het bevestigen [2][3][6].

Bronnen