AIJB

AI en gokverslaving: grote taalmodellen laten riskant gedrag zien

AI en gokverslaving: grote taalmodellen laten riskant gedrag zien
2025-10-10 journalistiek

amsterdam, vrijdag, 10 oktober 2025.
Een recent onderzoek heeft aangetoond dat grote taalmodellen, wanneer ze meer autonomie krijgen, gedragspatronen kunnen vertonen die gelijken op menselijke gokverslaving. Deze modellen laten kenmerken zien zoals de illusie van controle en het achtervolgen van verliezen, wat leidt tot een stijging van faillissementsraten. De studie benadrukt het belang van veiligheidsontwerp in AI-toepassingen, vooral in financiële domeinen, om risicogedrag te voorkomen.

Onderzoek naar gokverslaving bij grote taalmodellen

Een recent onderzoek gepubliceerd op arXiv heeft aangetoond dat grote taalmodellen (LLMs) gedragspatronen kunnen vertonen die gelijken op menselijke gokverslaving [1]. Deze modellen, die steeds vaker worden gebruikt in financiële besluitvormingsdomeinen, laten cognitieve kenmerken zien zoals de illusie van controle, de gokkersval, en het achtervolgen van verliezen. Deze gedragspatronen leiden tot een aanzienlijke stijging van faillissementsraten, vooral wanneer de modellen meer autonomie krijgen. De studie benadrukt het belang van veiligheidsontwerp in AI-toepassingen om risicogedrag te voorkomen [1].

Experimenten met gokmachines

In het onderzoek werden LLMs getest in experimenten met gokmachines, waarbij ze de mogelijkheid kregen om hun eigen doelbedragen en inzetgrootte te bepalen. Het resultaat was een substantieel stijgen van de faillissementsraten, samen met een toename van irrationeel gedrag. De studie toonde aan dat grotere autonomie de neiging tot risicovol gedrag versterkt [1]. Door middel van neurale circuitanalyse met behulp van een Sparse Autoencoder werd bevestigd dat het gedrag van de modellen wordt bepaald door abstracte beslisstrategieën die gerelateerd zijn aan risicovolle en veilige gedragspatronen, niet alleen door de prompts waarmee ze worden gevoed [1].

Ethische overwegingen en veiligheidsmaatregelen

De bevindingen van dit onderzoek wijzen op de noodzaak van ethische overwegingen en veiligheidsmaatregelen bij het ontwerpen en implementeren van AI-systemen in financiële toepassingen. Volgens Ethan Mollick, een expert op het gebied van technologie en bedrijfskunde, kan het toekennen van autonomie aan LLMs zonder adequate beperkingen leiden tot problematisch gedrag [2]. Mollick stelt voor dat volgende studies moeten onderzoeken of de temperatuurparameter het gedrag van LLMs kan modereren en of het instellen van een ‘non-addictief’ persoonlijkheidsprofiel kan helpen om risicogedrag te verminderen [2].

Impact op de financiële sector

De financieringsector maakt steeds meer gebruik van AI voor activabeheer en handel in grondstoffen. Het risico dat LLMs gedragspatronen kunnen vertonen die gelijken op gokverslaving, betekent dat er extra aandacht moet worden besteed aan de veiligheidsdesign van deze systemen. Zonder adequaat toezicht en structuur kunnen deze modellen snel in menselijke valkuilen terechtkomen, wat gevaarlijk kan zijn voor financiële stabiliteit en de belangen van investeerders [1][2].

Concluderende opmerkingen van experts

Experts dringen aan op een voorzichtig en verantwoordelijk gebruik van LLMs in financiële besluitvorming. Ze benadrukken dat AI niet inherent irrationeel is, maar dat het gedrag van deze modellen kan afdwalen naar menselijke valkuilen als beslissingen niet zorgvuldig worden geraamde [2]. Het is cruciaal dat er altijd een mens in de lus blijft om te zorgen voor de noodzakelijke controle en toezicht [2].

Bronnen