AIJB

India neemt strikte maatregelen tegen deepfakes

India neemt strikte maatregelen tegen deepfakes
2025-10-23 nepnieuws

new delhi, donderdag, 23 oktober 2025.
De Indiase regering heeft nieuwe regels voorgesteld om de verspreiding van deepfakes te beperken. Bedrijven die actief zijn in kunstmatige intelligentie en sociale media moeten AI-gegenereerde inhoud duidelijk markeren, met labels die ten minste 10% van de oppervlakte van een visuele weergave of de eerste 10% van een audioduur beslaan. Deze maatregelen zijn ontstaan in reactie op de toenemende risico’s van deepfakes en misinformation, en worden gezien als een van de eerste expliciete pogingen wereldwijd om een kwantificeerbare zichtbaarheidsstandaard vast te leggen.

Strikte regels voor AI-bedrijven

De Indiase regering heeft nieuwe regels voorgesteld om de verspreiding van deepfakes te beperken. Bedrijven die actief zijn in kunstmatige intelligentie en sociale media moeten AI-gegenereerde inhoud duidelijk markeren, met labels die ten minste 10% van de oppervlakte van een visuele weergave of de eerste 10% van een audioduur beslaan. Deze maatregelen zijn ontstaan in reactie op de toenemende risico’s van deepfakes en misinformation, en worden gezien als een van de eerste expliciete pogingen wereldwijd om een kwantificeerbare zichtbaarheidsstandaard vast te leggen [2].

Reactie van de industrie

De regering nodigt publiek en bedrijven uit om suggesties te doen over de nieuwe regels tot 6 november 2025. Hoewel de meeste bedrijven positief reageren op deze maatregelen, hebben sommige grote spelers zoals OpenAI, Google, en Meta nog niet gereageerd op de vragen van Reuters [2]. OpenAI CEO Sam Altman stelde in februari 2025 dat India de tweede grootste markt voor OpenAI is, met een drievoudige toename van gebruikers in het afgelopen jaar [2].

Impact op mediageletterdheid en democratie

De verspreiding van deepfakes en misinformation heeft aanzienlijke implicaties voor mediageletterdheid en democratie. In India staan hoge profile rechtszaken op de agenda, waaronder gevallen die Bollywood sterren Abhishek Bachchan en Aishwarya Rai Bachchan betreffen [2]. Deze gevallen illustreren hoe deepfakes niet alleen persoonlijk schade kunnen veroorzaken, maar ook de openbare opinie en politieke besluitvorming kunnen beïnvloeden. Het is daarom cruciaal dat gebruikers leren om nepnieuws te herkennen en kritisch na te denken over de informatie die ze tegenkomen [GPT].

Praktische tips voor het herkennen van nepnieuws

Om de verspreiding van deepfakes en misinformation te bestrijden, kunnen gebruikers de volgende praktische tips toepassen:

  1. Controleer de bron: Zorg ervoor dat de informatie afkomstig is van betrouwbare en bekende bronnen.
  2. Kijk uit voor foute spelling en grammaticafouten: Vaak zijn nepnieuwsartikelen slecht geschreven en bevatten veel fouten.
  3. Verifieer de afbeeldingen en video’s: Gebruik tools zoals Google Images om afbeeldingen te controleren op manipulatie.
  4. Raadpleeg meerdere bronnen: Vergelijk informatie uit verschillende bronnen om een breed overzicht te krijgen.
  5. Wees kritisch: Twijfel aan sensatiezoekende headlines en informatie die te goed lijkt om waar te zijn [GPT].

Bronnen