AIJB

Ethische grenzen in AI-defensie: Wie draagt de verantwoordelijkheid?

Ethische grenzen in AI-defensie: Wie draagt de verantwoordelijkheid?
2025-10-28 journalistiek

den haag, dinsdag, 28 oktober 2025.
In een recente aflevering van de BNR podcast De Strateeg bespreken analist Sofia Romansky en hoogleraar Jeroen van den Hoven de ethische implicaties van AI in de defensie. Ze leggen de nadruk op de noodzaak van verantwoordelijkheid bij fouten van autonome wapens en hoe internationale samenwerking kan helpen om een wapenwedloop met AI te voorkomen. Een van de meest intrigante vragen die ze aanroeren is wie verantwoordelijk is als een autonoom wapen een fout maakt.

Ethische vraagstukken in de podcast: wie draagt de verantwoordelijkheid?

In een recente aflevering van de BNR-podcast De Strateeg bespreken HCSS-analist Sofia Romansky en hoogleraar ethiek en techniek Jeroen van den Hoven de morele en juridische grenzen van AI in defensie, en vragen zij expliciet wie verantwoordelijk moet worden gehouden wanneer autonome wapensystemen fouten maken of burgers treffen [1]. De makers leggen nadruk op internationale afspraken en ethische richtlijnen als middelen om een escalerende wapenwedloop te voorkomen [1].

Een concreet onderwerp voor journalisten: generatieve taal- en spraaktechnologieën

In de journalistiek manifesteert de AI-toepassing die het snelst zichtbaar is voor publiek en redacties zich in generatieve taalmodellen (LLM’s) en geavanceerde text-to-speech (TTS)-systemen — technologieën die in 2025 prominent zijn bij een breed scala aan bedrijven en platformen, waaronder grote cloud- en modelaanbieders en gespecialiseerde TTS-leveranciers [2]. Deze systemen kunnen volledige artikelen opstellen, audio-nabootsingen van stemmen maken en nieuwsberichten personaliseren voor individuele lezers of luisteraars [2].

Hoe de technologie werkt (kort en toegankelijk)

Grofweg baseren LLM’s zich op grootschalige statistische patronen in tekstdata om plausibele zinnen te genereren; TTS-systemen gebruiken gelijktijdig getrainde audionetwerken om stemgeluid te synthetiseren op basis van tekstinput. Veel van deze tools draaien op cloudinfrastructuur en gespecialiseerde hardware, en worden aangeboden via enterprise‑ en cloudplatforms die de rekenkracht en API’s leveren voor newsroom-integratie [2][5].

Toepassingen in de dagelijkse nieuwsproductie

Redacties gebruiken LLM’s om eerste drafts te produceren, feitenlijsten samen te vatten, zoekvragen van journalisten te beantwoorden en gepersonaliseerde nieuwsbrieven of korte lokale updates te genereren; TTS wordt ingezet om geschreven stukken snel in audio om te zetten voor podcasts en nieuwslezers, of om content toegankelijk te maken voor blinden en slechtzienden [2][5]. Deze workflows worden mogelijk gemaakt doordat mediabedrijven en softwareleveranciers AI-diensten en cloudoplossingen aanbieden die naadloos integreren met redactionele systemen [5][2].

Voordelen voor nieuwsproductie en -consumptie

AI biedt concrete winst: snelheid bij het produceren van content, schaalbaarheid van gepersonaliseerde nieuwsaanbiedingen en verbeterde toegankelijkheid door automatische voorleesfuncties en transcriptie. Daarnaast kunnen automatische samenvattingen lezers helpen sneller de kernpunten van complexe verhalen te vinden, wat de efficiëntie van zowel journalisten als consumenten vergroot [2][5].

Dezelfde technieken die nieuws sneller en toegankelijker maken, kunnen ook worden misbruikt: synthetische audio kan valse statements in de mond van publieke figuren leggen; gegenereerde artikelen kunnen desinformatie verspreiden; en geautomatiseerde personalisatie kan echo-kamers versterken. Dergelijke risico’s roepen vergelijkbare verantwoordelijkheid- en reguleringsvragen op als in de defensiediscussie: wie is aansprakelijk bij misbruik — de ontwikkelaar van het model, de aanbieder van de cloudinfrastructuur, de redacteur die publiceert, of de kwaadwillende actor die de outputs inzet? [1][2][3][5].

Regulering, governance en internationale samenwerking

Debatten over AI‑regulering wijzen op de noodzaak van gezamenlijke normen en governance — variërend van technische maatregelen (zoals watermerken en provenance‑metadata) tot juridische kaders en internationale afspraken — vergelijkbaar met de roep om coördinatie rond militaire AI-toepassingen [3][1]. Publicisten en beleidsmakers noemen digitale soevereiniteit en betrouwbare cloudleveranciers als elementen in een veilige adoptie van AI in nieuwsorganisaties [5][3].

Ethische richtlijnen binnen redacties: transparantie en menselijke eindverantwoordelijkheid

Praktische stappen die redacties kunnen nemen zijn onder meer: expliciete vermelding wanneer content (tekst of audio) gedeeltelijk of volledig door AI is gegenereerd; ingebouwde menselijke eindcontrole vóór publicatie; en technische detectie van gemanipuleerde audio of deepfakes. Deze maatregelen sluiten aan bij het bredere pleidooi voor verantwoordelijkheid bij AI‑systemen in gevoelige domeinen zoals defensie [1][5].

Bedreigingen en onduidelijkheden die aandacht vragen

Onzekerheden blijven bestaan over hoe effectief internationale regels kunnen zijn bij snelle technologische ontwikkelingen, en in hoeverre marktpartijen bereid zijn om vrijwillige beperkingen op te leggen. Deze onzekerheid maakt het moeilijk te voorspellen of technologische tegenmaatregelen en beleidsinitiatieven tijdig en voldoende robuust zullen blijken [alert! ‘toekomstige naleving en effectiviteit van internationale AI‑afspraken is onzeker; prognoses ontbreken in de beschikbare bronnen’] [3][1][2].

Praktische aanbevelingen voor nieuwsorganisaties (kort overzicht)

Journalistieke organisaties doen er goed aan: (1) AI‑gebruik te labelen en transparant te maken voor publiek, (2) menselijke eindredactie verplicht te stellen bij gevoelige onderwerpen, (3) technische verificatie-tools te implementeren voor audio en beeld, en (4) samen te werken met betrouwbare cloud‑ en modelproviders om controle over data en modellen te behouden [5][2][1].

Bronnen