Ethiek in AI: Balans tussen Technologie en Gerechtigheid
brussel, donderdag, 21 augustus 2025.
Het gebruik van AI in militaire context roept ethische vragen op. Israëlische AI-systemen zoals Lavender selecteren doelen met ongekende snelheid, maar de besluitvorming wordt steeds meer bepaald door technische mogelijkheden in plaats van gerechtigheid. Experten pleiten voor een balans waarbij technologie dient om vrede en rechtvaardigheid te bevorderen, niet om ze te ondermijnen.
Technische Snelle Doelkeuze
Israëlische AI-systemen zoals Lavender selecteren doelen met ongekende snelheid, waarbij militairen slechts enkele seconden nodig hebben om een bombardement te autoriseren [6]. Lavender wordt gebruikt om vermoedelijke Hamasstrijders te markeren voor mogelijke luchtaanvallen, wat de besluitvorming steeds meer bepaalt door technische mogelijkheden in plaats van gerechtigheid. Dit roept ernstige ethische vragen op over de rol van technologie in militaire besluitvorming.
Ethische Kaders en Gerechtigheid
Experten pleiten voor een balans waarbij technologie dient om vrede en rechtvaardigheid te bevorderen, niet om ze te ondermijnen [6]. Dooyeweerd’s aspectenleer wordt genoemd als een hulpmiddel om de ontwikkeling en gebruik van militaire technologie te sturen, met nadruk op het juridische aspect dat gericht moet zijn op de bevordering van vrede en gerechtigheid [6]. Dit betekent dat technologie niet alleen op efficiëntie gericht mag zijn, maar ook op de humane en ethische implicaties van haar toepassing.
Transparantie en Verantwoordelijkheid
Een van de grootste uitdagingen bij het gebruik van AI in militaire context is de noodzaak voor transparantie en verantwoordelijkheid. De exacte redenen voor de doelkeuze door AI-systemen zijn vaak onduidelijk voor de betrokken militairen [6]. Dit kan leiden tot situaties waarin technische mogelijkheden de besluitvorming bepalen, in plaats van gerechtigheid. Het is daarom cruciaal dat er streng toezicht en regulering zijn om te waarborgen dat AI-systemen transparant en verantwoord worden ingezet.
Impact op Militairen
Het gebruik van AI in militaire context heeft ook een significante impact op de rol en verantwoordelijkheid van militairen. De taak van de militaire analist is steeds meer gericht op het goedkeuren van door AI gegenereerde dodenlijsten [6]. Dit kan leiden tot een afstand tussen de besluitvormer en de gevolgen van zijn of haar beslissingen, wat ethische en morele dilemma’s oproept. Het is daarom essentieel dat militairen voldoende worden getraind in de ethische implicaties van AI-gebruik.
Internationale Discussie
Het gebruik van AI in militaire context is ook onderwerp van internationale discussie. Tientallen wereldleiders, academici en technologiebedrijven kwamen samen op de AI Safety Summit in Bletchley Park (VK) om de veiligheidsaspecten en ethische implicaties van AI te bespreken [2]. Deze discussies benadrukken de urgentie van een wereldwijde aanpak om de ontwikkeling en toepassing van AI te reguleren en te begeleiden.
Concluderende Opmerkingen
Het gebruik van AI in militaire context biedt zowel kansen als uitdagingen. Terwijl technologie kan bijdragen aan efficiëntie en veiligheid, is het cruciaal dat deze toepassingen altijd gericht zijn op de bevordering van gerechtigheid en vrede. Door ethische kaders, transparantie en verantwoordelijkheid te waarborgen, kunnen we ervoor zorgen dat technologie een positieve rol speelt in de militaire sector.