Zweedse premier onder vuur voor gebruik van ChatGPT in beleidsadvies
Stockholm, donderdag, 7 augustus 2025.
Zweedse premier Ulf Kristersson gebruikt regelmatig ChatGPT voor ‘tweede opinies’ over zijn beleid, wat hem in zijn eigen land op felle kritiek komt te staan. Ethische experts waarschuwen voor de gevaren van AI-gebruik in politieke besluitvorming, zoals ‘automation bias’ en het risico op politieke vooroordelen in de trainingsdata van AI-systeem. Expert Ann-Katrien Oimann stelt dat politici transparanter moeten zijn over hun AI-gebruik en geen gevoelige informatie mogen delen.
Zweedse premier onder vuur voor gebruik van ChatGPT in beleidsadvies
Zweedse premier Ulf Kristersson gebruikt regelmatig ChatGPT voor ‘tweede opinies’ over zijn beleid, wat hem in zijn eigen land op felle kritiek komt te staan. Ethische experts waarschuwen voor de gevaren van AI-gebruik in politieke besluitvorming, zoals ‘automation bias’ en het risico op politieke vooroordelen in de trainingsdata van AI-systeem. Expert Ann-Katrien Oimann stelt dat politici transparanter moeten zijn over hun AI-gebruik en geen gevoelige informatie mogen delen [2].
Kristersson’s gebruik van ChatGPT
In een interview met Dagens Industri op laatst vrijdag onthulde Kristersson dat hij ChatGPT gebruikt om kritische vragen te stellen over zijn beleid. Hij verklaarde: ‘Ik gebruik zelf redelijk vaak artificiële intelligentie. Al is het maar voor een tweede opinie. Wat hebben anderen gedaan? En moeten we juist het tegenovergestelde denken? Dat soort vragen.’ Zijn woordvoerder benadrukte dat er geen gevoelige informatie wordt ingegeven en dat AI dient om een ruime inschatting te maken [2].
Kritiek in de Zweedse media
De bekentenis van Kristersson ontketende hevige reacties in de Zweedse media. Aftonbladet publiceerde een artikel getiteld ‘Een val voor de AI-psychose van de oligarchen’, terwijl Dagens Nyheter schreef: ‘Onze samenleving heeft meer kritische denkers nodig, geen beleidsmakers die antwoorden zoeken in zwarte dozen’ [2].
Ethische overwegingen
Ann-Katrien Oimann, expert in AI en ethiek aan de KU Leuven en KMS, waarschuwt voor de potentiële gevaren van AI-gebruik in politieke besluitvorming. Ze stelt dat ‘Een AI-systeem is maar zo goed als de trainingsdata waarmee het is opgeleid’, en dat deze trainingsdata vaak politieke vooroordelen bevat. Oimann benadrukt ook het risico van ‘automation bias’, waarbij mensen geneigd zijn om uitkomsten van AI-systemen voor waar aan te nemen zonder ze kritisch in vraag te stellen [2].
Tips voor verantwoord AI-gebruik
Oimann biedt enkele tips voor verantwoord AI-gebruik in politieke besluitvorming. Politici moeten geen gevoelige of vertrouwelijke informatie delen, geen juridisch advies of feitelijke informatie gebruiken die niet kan worden geverifieerd, en transparant zijn over hun AI-gebruik. Ze stelt dat het probleem niet ligt in het gebruik van chatbots, maar in hoe ze worden gebruikt [2].
Impact op de publieke opinie
De openbaarmaking van Kristerssons gebruik van ChatGPT heeft ook invloed gehad op de publieke opinie. Velen vragen zich af of de rol van een premier niet meer is dan een menselijke interface voor AI. Oimann stelt dat ‘Mensen stemmen voor een premier, niet voor een chatbot’, wat de discussie verder aanwakkert over de grenzen van AI-gebruik in de politiek [2].