AIJB

Vietnam bouwt een AI-wet die niet alleen regelt, maar ook vertrouwen creëert

Vietnam bouwt een AI-wet die niet alleen regelt, maar ook vertrouwen creëert
2025-11-21 voorlichting

Hue, vrijdag, 21 november 2025.
Vietnam neemt een unieke stap in de wereldwijde AI-regelgeving door een wet op kunstmatige intelligentie te presenteren die niet alleen ethiek en verantwoordelijkheid benadrukt, maar ook het gebruik van AI bij verkiezingen expliciet verbiedt. Een van de meest opvallende aspecten: het ontwerp bevat een specifiek verbod op het creëren van nep-inhoud of het manipuleren van stemmen met AI, een directe reactie op de toenemende dreiging van digitale desinformatie. Tegelijkertijd legt de wet de basis voor een nationale AI-infrastructuur met schone, gedeelde gegevens en strikte beveiligingsmaatregelen. De discussie in de Nationale Assemblee toont een bewuste afweging tussen innovatie en veiligheid — een evenwicht dat niet alleen voor Vietnam van belang is, maar ook als voorbeeld dient voor opkomende markten wereldwijd.

Vietnam opent de deur voor een mensgerichte AI-toekomst

Vietnam neemt een belangrijke stap voorwaarts in de wereldwijde regelgeving rond kunstmatige intelligentie (AI) door een nieuw wetgevingsproject te presenteren dat niet alleen technische innovatie stimuleert, maar ook de ethische en juridische kaders voor AI-gebruik aanpast aan de realiteit van het 21e eeuwse maatschappelijk leven. Het wetsontwerp, dat op 20 november 2025 door de afgevaardigden van de Nationale Assemblee werd goedgekeurd en op 21 november 2025 in de groepssessie van Lang Son, Dong Nai en Hue werd besproken, beoogt een evenwicht te scheppen tussen technologische vooruitgang en burgerlijke vrijheid [1][2]. De wet stelt een juridisch kader op voor AI-ontwikkeling en -toepassing, inclusief risicoclassificatie, verplichte ethische audits en een duidelijk kader voor verantwoordelijkheid van gebruikers, ontwikkelaars en aanbieders [2]. De kern van het ontwerp ligt in het beperken van schade aan mensen en maatschappij, waarbij AI-systemen die een significant risico vormen voor rechten en veiligheid van burgers worden onderworpen aan strikte controle [2]. De afgevaardigden benadrukten dat technologie alleen veilig en verantwoord kan functioneren binnen een duidelijk juridisch en ethisch kader, wat ook voor journalistieke en openbare informatievoorziening van grote betekenis is [1]. Dit initiatief toont aan dat zelfs in opkomende markten zoals Vietnam, de focus verschuift van technologische innovatie naar verantwoord gebruik, wat ook voor openbare communicatie van groot belang is [1].

Ethische grenzen voor AI: van nepnieuws tot verkiezingsfraude

Een van de meest opvallende elementen van het Vietnamse AI-wetsontwerp is het expliciete verbod op het gebruik van AI om verkiezingen te manipuleren, politieke onrust te veroorzaken of nationale veiligheid te schenden. Op 21 november 2025 stelde Nguyen Thanh Hai, voorzitter van de Commissie voor Wetenschap, Technologie en Milieu van de Nationale Assemblee, voor om regelgeving toe te voegen die het gebruik van AI om stemmen te manipuleren, nep-inhoud te creëren of op te hitsen verbiedt [6]. Deze voorstellen zijn een directe reactie op de toenemende dreiging van digitale desinformatie en het misbruik van generatieve AI in politieke campagnes. De wet omvat ook verboden voor het maken van nep-afbeeldingen, nep-videoclips en fraude op basis van AI, en stelt beginselen vast voor vroege identificatie van overtredingen vanaf de onderzoeksfase tot de inzet van AI [6]. Deze maatregel is cruciaal in een tijd waarin AI-gegenereerde inhoud, zoals deepfakes, steeds realistischer wordt en reeds in meerdere landen is gebruikt om publieke opinie te beïnvloeden [6]. De afgevaardigden benadrukten dat dergelijke handelingen niet alleen technisch mogelijk zijn, maar ook een bedreiging vormen voor de democratische orde en burgerlijke vrijheden [6]. De wet wil hierin een balans scheppen door technologie te stimuleren terwijl het tegelijkertijd de grenzen van ethisch en juridisch toegestaan gedrag duidelijk omschrijft [2].

AI in de praktijk: van gezondheidszorg tot openbare veiligheid

In de praktijk wordt AI al ingezet in essentiële sectoren zoals de gezondheidszorg en de openbare veiligheid, waar het zowel mogelijkheden als uitdagingen oplevert. In het Hue Central Hospital wordt AI al gebruikt voor beelddiagnostiek, waarbij algoritmen helpen bij het interpreteren van röntgenfoto’s, CT-scans en hersenfilmpjes [1]. Afgevaardigde Pham Nhu Hiep (Hue) benadrukte de noodzaak van verantwoordelijkheid bij fouten van AI in medische contexten, waarbij menselijk toezicht essentieel is [1]. Evenzo worden AI-gestuurde videobewakingssystemen wereldwijd ingezet om de openbare veiligheid te verbeteren, door verdacht gedrag zoals loiteren, ongewone bijeenkomsten of verlaten voorwerpen in real-time te detecteren [7]. Deze systemen verhogen de efficiëntie van veiligheidsoperaties door routinematige monitoring te automatiseren en vroege waarschuwingen te geven over potentiële problemen [7]. Echter, deze toepassingen roepen ook zorgen op over privacy, algoritmische vooringenomenheid en overbewaking [7]. De Vietnamse wet streeft ernaar om deze risico’s te beperken door maatregelen zoals gegevensanonimisering, strenge toegangscontrole en gemeenschapscontrole te implementeren, en het waarborgen van eerlijkheid in AI-algoritmen [7]. De afgevaardigden benadrukten dat het vinden van een balans tussen veiligheidsbehoeften en individuele rechten cruciaal is voor de verantwoorde inzet van AI-bewaking in stedelijke gebieden [7].

Infrastructuur en verantwoordelijkheid: de basis voor vertrouwen

Het wetsontwerp legt ook de basis voor een nationale AI-infrastructuur die gericht is op schone, gedeelde en actuele gegevens. De afgevaardigden stelden voor dat gegevens voor AI-systemen correct, voldoende, schoon, actueel, uniform en gedeeld moeten zijn, een kernbeginsel voor effectieve en veilige AI-voorzieningen [6]. Er wordt een mechanisme voorgesteld voor onderlinge verbinding en gegevensuitwisseling om verspreiding van gegevens en knelpunten in AI-onderzoek en -ontwikkeling te voorkomen [6]. Verplichte voorschriften zijn gepland voor netwerkbeveiliging, gegevensbeveiliging en verdediging van de nationale AI-infrastructuur om kaping en gegevenslekken te voorkomen [6]. Deze maatregelen zijn essentieel om het vertrouwen van burgers en bedrijven in AI-technologie te bouwen. Afgevaardigde Trinh Xuan An (Dong Nai) benadrukte dat invoergegevens voor AI ‘correct - voldoende - schoon - levend’ moeten zijn, wat een fundamentele voorwaarde is voor betrouwbare resultaten [1]. Bij het bepalen van verantwoordelijkheid bij AI-fouten wordt de uiteindelijke beslissing nog steeds door mensen genomen, hoewel AI als hulpmiddel fungeert [1]. De wet stelt dat overtredingen administratief, civiel of strafrechtelijk kunnen worden afgehandeld, maar er is nog geen duidelijke categorisatie van verantwoordelijkheden tussen administratieve, civiele en strafrechtelijke aansprakelijkheid [1].

Vooruitblik: van wet tot implementatie en internationale samenwerking

Het AI-wetsontwerp is nog in herziening, met een doorgang van de redactiecommissie die in de loop van 21 november 2025 plaatsvond en richtinggevend is voor toekomstige besluiten [1]. De afgevaardigden adviseerden om het Nationaal Comité voor Kunstmatige Intelligentie uitgebreid te regelen, met een duidelijke juridische positie, functies, bevoegdheden, organisatiestructuur en relatie met ministeries [1]. Bovendien werd voorgesteld om een apart artikel over verboden handelingen toe te voegen, gebaseerd op principes zoals transparantie, veiligheid, verantwoordingsplicht, menselijk toezicht, eerlijkheid, non-discriminatie en ondersteuning van gecontroleerde innovatie [1]. De wet is ontwikkeld in samenwerking met wereldleiders, wetenschappers en spirituele leiders van Harvard tot Hanoi, van Parijs tot Tokio, met focus op wereldwijde samenwerking en ethisch leiderschap [2]. Het Boston Global Forum en de AI World Society (AIWS) spelen een prominente rol in het inspireren van het Vietnamse kader, met het AIWS-DASI-certificeringskader dat wereldwijd ethische digitale activa beloont [2]. Deze internationale samenwerking duidt op een groeiende trend waarbij landen niet alleen binnenlandse capaciteit bouwen, maar ook deel uitmaken van een globaal netwerk van ethisch AI-beheer [2]. De afgevaardigden benadrukten dat alleen als bovenstaande mechanismen zijn voltooid, het AI-ethisch kader effectief is en ervoor zorgt dat technologie zich in de juiste richting ontwikkelt, op een veilige manier en voor mensen [1].

Bronnen