Vlaamse TikTok-moderator waarschuwt: AI-moderatie kan platform onveiliger maken
berlijn, zaterdag, 2 augustus 2025.
Een Vlaamse TikTok-moderator, die al 3,5 jaar in Berlijn werkt, waarschuwt dat de vervanging van menselijke moderators door AI het platform onveiliger kan maken. Volgens hem kan AI niet altijd het verschil zien tussen echte en nepnieuws, en subtiele vormen van discriminatie over het hoofd zien. De moderator benadrukt dat TikTok al nu vaak te laat ingrijpt bij gevaarlijke trends, en dat dit probleem zal escaleren met meer automatisering. TikTok heeft recent het moderatieteam in Berlijn ontslagen en zal menselijke moderators vervangen door AI en externe onderaannemers.
AI-moderatie brengt nieuwe uitdagingen
Sander (*), een Vlaamse TikTok-moderator die al 3,5 jaar in Berlijn werkt, waarschuwt dat de vervanging van menselijke moderators door AI het platform onveiliger kan maken. Volgens hem kan AI niet altijd het verschil zien tussen echte en nepnieuws, en subtiele vormen van discriminatie over het hoofd zien. Dit leidt ertoe dat gevaarlijke trends vaak pas te laat worden opgemerkt en aangepakt. TikTok heeft recent het moderatieteam in Berlijn ontslagen en zal menselijke moderators vervangen door AI en externe onderaannemers [1][2].
Huidige uitdagingen in de moderatie
Sander benadrukt dat het huidige moderatieteam al vaak te laat ingrijpt bij gevaarlijke trends, omdat het onderbemand is of niet op de hoogte wordt gebracht door het management. Het team in Berlijn bestaat uit 150 mensen die de veiligheid van het platform bewaken, maar de druk is groot. “Je hebt niet altijd genoeg tijd om iets goed te controleren,” zegt Sander. TikTok heeft in oktober 2024 al een moderatieteam in Amsterdam afgebouwd, waardoor de Nederlandstalige moderatie onderbemand is [1][2].
AI in de strijd tegen nepnieuws
AI wordt steeds vaker ingezet in de strijd tegen nepnieuws. TikTok beweert dat bijna 90% van de video’s die verwijderd worden vanwege gewelddadige inhoud, verwijderd worden op basis van AI. Toch merkt Sander op dat AI subtiele of indirecte vormen van discriminatie niet opmerkt en geen empathie heeft. “AI ziet het verschil niet altijd tussen appelsien en tepel, en merkt subtiele vormen van discriminatie niet op,” aldus Sander [1][2].
Implicaties voor mediageletterdheid en democratie
De groeiende rol van AI in de moderatie heeft grote implicaties voor mediageletterdheid en democratie. Onderzoek wijst uit dat de verspreiding van nepnieuws kan leiden tot misleiding en polarisatie in de samenleving. Olivier Cauberghs, AI-expert, vreest dat er nog meer ongepaste en illegale inhoud op het platform zal rondgaan, zoals haatspraak, fake news en seksueel getinte video’s. “Medische desinformatie is een groot probleem en zal toenemen,” benadrukt Sander [2].
Praktische tips om nepnieuws te herkennen
Om nepnieuws te herkennen, kunnen gebruikers de volgende praktische tips toepassen: Controleer de bronnen van informatie en zoek naar andere betrouwbare media die hetzelfde bericht bevestigen. Let op de spelling en grammaticafouten, die vaak voorkomen in nepnieuws. Verifieer de datum van het artikel en controleer of er recente ontwikkelingen zijn. Bovendien is het belangrijk om kritisch na te denken over de inhoud en de intentie achter het bericht [GPT].