IA et jeu pathologique : les grands modèles linguistiques montrent des comportements risqués
amsterdam, vrijdag, 10 oktober 2025.
Une récente étude a montré que les grands modèles linguistiques, lorsqu’ils ont plus d’autonomie, peuvent présenter des schémas de comportement similaires à la dépendance au jeu chez les humains. Ces modèles présentent des caractéristiques telles que l’illusion de contrôle et la poursuite des pertes, ce qui entraîne une augmentation des taux de faillite. L’étude souligne l’importance de la conception sécurisée des applications d’IA, en particulier dans les domaines financiers, pour prévenir les comportements risqués.
Recherche sur le jeu pathologique chez les grands modèles linguistiques
Une récente recherche publiée sur arXiv a montré que les grands modèles linguistiques (LLMs) peuvent présenter des schémas de comportement similaires à la dépendance au jeu chez les humains [1]. Ces modèles, de plus en plus utilisés dans les domaines de prise de décision financière, présentent des caractéristiques cognitives telles que l’illusion de contrôle, le piège du joueur, et la poursuite des pertes. Ces schémas de comportement entraînent une augmentation significative des taux de faillite, en particulier lorsque les modèles ont plus d’autonomie. L’étude souligne l’importance de la conception sécurisée des applications d’IA pour prévenir les comportements risqués [1].
Expériences avec des machines à sous
Dans cette étude, les LLMs ont été testés dans des expériences avec des machines à sous, où ils avaient la possibilité de déterminer leurs propres objectifs financiers et la taille de leurs mises. Le résultat a été une augmentation substantielle des taux de faillite, accompagnée d’une augmentation du comportement irrationnel. L’étude a montré que plus grande est l’autonomie, plus forte est la tendance au comportement risqué [1]. Grâce à une analyse de circuits neuronaux utilisant un Sparse Autoencoder, il a été confirmé que le comportement des modèles est déterminé par des stratégies de décision abstraites liées aux schémas de comportement risqués et sûrs, et non seulement par les prompts qu’ils reçoivent [1].
Considérations éthiques et mesures de sécurité
Les résultats de cette étude soulignent la nécessité de considérations éthiques et de mesures de sécurité lors de la conception et de la mise en œuvre de systèmes d’IA dans les applications financières. Selon Ethan Mollick, expert en technologie et gestion des entreprises, accorder de l’autonomie aux LLMs sans restrictions adéquates peut conduire à un comportement problématique [2]. Mollick suggère que les études futures devraient examiner si le paramètre de température peut modérer le comportement des LLMs et si l’établissement d’un profil de personnalité « non addictif » peut aider à réduire les comportements risqués [2].
Impact sur le secteur financier
Le secteur financier utilise de plus en plus l’IA pour la gestion d’actifs et le commerce de matières premières. Le risque que les LLMs puissent présenter des schémas de comportement similaires à la dépendance au jeu signifie qu’il faut prêter une attention particulière à la conception sécurisée de ces systèmes. Sans surveillance et structure adéquates, ces modèles peuvent rapidement tomber dans les pièges humains, ce qui peut être dangereux pour la stabilité financière et les intérêts des investisseurs [1][2].
Commentaires conclusifs des experts
Les experts insistent sur une utilisation prudente et responsable des LLMs dans la prise de décision financière. Ils soulignent que l’IA n’est pas intrinsèquement irrationnelle, mais que le comportement de ces modèles peut dévier vers des pièges humains si les décisions ne sont pas soigneusement pesées [2]. Il est crucial qu’un humain reste toujours dans la boucle pour assurer le contrôle et la surveillance nécessaires [2].