AIJB

Waarom AI-ethiek niet teveel regels nodig heeft

Waarom AI-ethiek niet teveel regels nodig heeft
2025-12-04 journalistiek

Den Haag, donderdag, 4 december 2025.
Demissionair minister David van Weel waarschuwt voor het gevaar van overregulering bij AI, en benadrukt dat een wereldwijde, gecoördineerde aanpak essentieel is om een ‘9/11-moment’ op het gebied van kunstmatige intelligentie te voorkomen. De meest opvallende waarheid: te strakke regels kunnen innovatie remmen, terwijl te losse regels ethiek ondermijnen. Nederland speelt een sleutelrol in het stimuleren van slimme, ethische samenwerking tussen overheden, bedrijven en wetenschap. De uitdaging is niet het stoppen van AI, maar het begeleiden van haar groei op een manier die veiligheid, verantwoordelijkheid en vooruitgang in evenwicht houdt — een balans die alleen internationaal te realiseren is.

De dreiging van een AI-9/11-moment

Demissionair minister van Buitenlandse Zaken David van Weel waarschuwde tijdens het forum ‘How to Trust AI? The Good, the Bad and the AI’ voor het risico dat de wereld wordt overrompeld door een ‘9/11-moment’ op het gebied van kunstmatige intelligentie [1]. Hij benadrukte dat het verschil tussen AI en de atoombom ligt in het tempo van impact: waar de kernbom een enkele, dramatische test vereist, ontwikkelen de gevolgen van AI zich langzaam maar onherroepelijk, met onvoorspelbare effecten op veiligheid, democratie en geopolitieke relaties [1]. Van Weel waarschuwde dat een plotselinge, niet-voorziene catastrofe — zoals een massale misbruik van AI-gebaseerde drones of verstorende deepfakes in een verkiezingscampagne — een vertrouwenscrisis in de maatschappij kan veroorzaken die moeilijk te herstellen is [1]. De vergelijking met 9/11 is niet louter rhetorisch: het is een waarschuwing voor het gebrek aan voorbereiding, evenals de noodzaak van een proactieve, gecoördineerde reactie op technologische disruptie [1].

Overregulering als rem voor innovatie

Van Weel waarschuwde dat overregulering op het gebied van AI een echte bedreiging vormt voor technologische vooruitgang en economische concurrentie [1]. Hij benadrukte dat regels noodzakelijk zijn, maar moeten ‘slim en doelgericht’ zijn — niet zo streng dat innovatie wordt afgeremd, en niet zo los dat ethiek uit het zicht verdwijnt [1]. Deze balans is cruciaal, omdat de Nederlandse overheid actief is in internationale initiatieven zoals REAIM (Responsible AI in the Military Domain) met Zuid-Korea en deelname aan VN-expertgroepen, waarbij Nederland een leidende rol wil spelen bij de ontwikkeling van verantwoorde AI [1]. Zonder een internationale aanpak riskeert de EU, zoals in het kader van de AI-Actieplan, te veel regels te introduceren die het snel groeien van AI-technologie in Nederland en de regio kunnen remmen [1][2]. Het gevaar is dat een te strakke regulering leidt tot een ‘innovatie-uitval’ — waarbij technologiebedrijven zoals Anthropic, gewaardeerd op 300 miljard dollar, hun investeringsstrategieën kunnen verplaatsen naar landen met meer flexibele regelgeving [1][2].

Internationale samenwerking als basis voor ethiek

Volgens Van Weel is een wereldwijde, gecoördineerde aanpak essentieel om kansen te behouden en ethiek te garanderen zonder innovatie te remmen [1]. Hij benadrukte dat het niet de taak van één land is om AI-ethiek te definiëren, maar dat samenwerking tussen overheden, bedrijven en wetenschap cruciaal is [1]. Dit is niet alleen een ethische noodzaak, maar ook een strategische, gezien de grensoverschrijdende aard van AI-technologie en de risico’s die zich kunnen voordoen in geautomatiseerde oorlogsvoering, datafraude of massale vervalsing van media [1]. De Nederlandse aanpak is gericht op het bouwen van een brug tussen diplomatie en technologie, met een focus op veiligheid, democratische waarde en het voorkomen van ondoorzichtige ‘black box’-modellen [1]. De recente invoering van een strafbaarstelling voor het maken en verspreiden van deepfakes van natuurlijke personen, met een maximumstraf van vijf jaar gevangenis of een boete van 250.000 euro, is een stap op dit pad, maar wordt geïntegreerd in een internationaal kader, zoals de Europese AI-Actieplan [3].

De uitdaging van technologische snelle vooruitgang

De voortgang in AI-technologie gaat sneller dan de wetgevende capaciteit van overheden. In de loop van slechts vijf maanden is het dagelijks gebruik van AI door Nederlanders bijna verdubbeld, wat de noodzaak van snelle, verantwoorde aanpassing benadrukt [3]. Er zijn al meer dan 100 miljard dollar geleend door OpenAI om het bedrijf werkend te houden, wat wijst op een extreem hoge financiële afhankelijkheid en investeringsinteresse, vooral in de VS [3]. Bovendien is er een actuele veiligheidsdreiging via een kwetsbaarheid in recente versies van de OpenAI software Codex CLI, die aanvallers ongemerkt codeuitvoering mogelijk maakt — een risico dat met name gereguleerde sectoren zoals financiën, gezondheidszorg en energie dreigt te treffen [3]. Deze snelheid van ontwikkeling maakt het onmogelijk om een volledig gecontroleerd en vooraf gereguleerd AI-beleid te voeren. Daarom pleit Van Weel voor een dinamisch kader dat zich aanpast aan nieuwe ontwikkelingen, in plaats van statische regels die binnen jaren verouderd zijn [1].

De rol van bedrijven en wetenschap

Om een evenwicht te vinden tussen veiligheid, innovatie en ethiek, moet er een open, ethisch en slimme samenwerking tussen overheden, bedrijven en wetenschap worden opgebouwd [1]. Bedrijven spelen een cruciale rol, maar hun verantwoordelijkheid wordt steeds duidelijker. Zo waarschuwde de SAP-gebruikersgroep dat het ‘laaghangende fruit’ van AI-gebruik vaak niet is wat het lijkt, omdat implementatie vaak jaren duurt en diepgaande procesverandering vereist [3]. Daarnaast betrapte de Australische overheid Deloitte op slecht AI-gebruik in een geleverd rapport, waarop het bedrijf geld terugbetaalde — een voorbeeld van hoe vertrouwen in AI-technologie snel verloren kan gaan bij misbruik [3]. Verzekeraars weigeren steeds vaker risico’s van AI-agents en AI-chatbots te dekken vanwege moeilijk te schatten risico’s, wat de economische impact van onverantwoorde AI-ontwikkeling toont [3]. Wetenschap en technologie-experts moeten daarom proactief samenwerken met beleidsmakers, zodat kansen en bedreigingen goed kunnen worden afgewogen en kennis niet alleen in laboratoria blijft steken [1].

Bronnen