Le Premier ministre suédois critiqué pour son utilisation de ChatGPT dans les conseils politiques
Stockholm, donderdag, 7 augustus 2025.
Le Premier ministre suédois Ulf Kristersson utilise régulièrement ChatGPT pour obtenir des « deuxièmes opinions » sur sa politique, ce qui lui vaut une vive critique dans son propre pays. Des experts éthiques mettent en garde contre les dangers de l’utilisation de l’IA dans la prise de décision politique, tels que le « biais d’automatisation » et le risque de préjugés politiques dans les données d’entraînement des systèmes d’IA. L’experte Ann-Katrien Oimann affirme que les politiciens doivent être plus transparents quant à leur utilisation de l’IA et ne pas partager d’informations sensibles.
Le Premier ministre suédois critiqué pour son utilisation de ChatGPT dans les conseils politiques
Le Premier ministre suédois Ulf Kristersson utilise régulièrement ChatGPT pour obtenir des « deuxièmes opinions » sur sa politique, ce qui lui vaut une vive critique dans son propre pays. Des experts éthiques mettent en garde contre les dangers de l’utilisation de l’IA dans la prise de décision politique, tels que le « biais d’automatisation » et le risque de préjugés politiques dans les données d’entraînement des systèmes d’IA. L’experte Ann-Katrien Oimann affirme que les politiciens doivent être plus transparents quant à leur utilisation de l’IA et ne pas partager d’informations sensibles [2].
L’utilisation de ChatGPT par Kristersson
Dans un entretien avec Dagens Industri vendredi dernier, Kristersson a révélé qu’il utilisait ChatGPT pour poser des questions critiques sur sa politique. Il a déclaré : « J’utilise assez souvent l’intelligence artificielle. Même pour une seconde opinion. Que font les autres ? Et devrions-nous penser exactement le contraire ? Ce genre de questions. » Son porte-parole a souligné qu’aucune information sensible n’est fournie et que l’IA est utilisée pour avoir une vue d’ensemble [2].
Critique dans les médias suédois
La révélation de Kristersson a déclenché des réactions vives dans les médias suédois. Aftonbladet a publié un article intitulé « Un piège pour la psychose de l’IA des oligarques », tandis que Dagens Nyheter a écrit : « Notre société a besoin de plus de penseurs critiques, pas de décideurs politiques qui cherchent des réponses dans des boîtes noires. » [2]
Considérations éthiques
Ann-Katrien Oimann, experte en IA et éthique à l’Université catholique de Louvain et à la KMS, met en garde contre les dangers potentiels de l’utilisation de l’IA dans la prise de décision politique. Elle souligne que « un système d’IA n’est que aussi bon que les données d’entraînement avec lesquelles il a été formé », et que ces données d’entraînement contiennent souvent des préjugés politiques. Oimann souligne également le risque de « biais d’automatisation », où les gens sont enclins à accepter les résultats des systèmes d’IA comme véritables sans les remettre en question de manière critique [2].
Conseils pour une utilisation responsable de l’IA
Oimann offre quelques conseils pour une utilisation responsable de l’IA dans la prise de décision politique. Les politiciens ne doivent pas partager d’informations sensibles ou confidentielles, ne pas utiliser de conseils juridiques ou d’informations factuelles qui ne peuvent pas être vérifiées, et être transparents sur leur utilisation de l’IA. Elle affirme que le problème ne réside pas dans l’utilisation des chatbots, mais dans la façon dont ils sont utilisés [2].
Impact sur l’opinion publique
La révélation de l’utilisation de ChatGPT par Kristersson a également influencé l’opinion publique. De nombreuses personnes se demandent si le rôle d’un Premier ministre ne devrait pas être plus qu’une interface humaine pour l’IA. Oimann affirme que « Les gens votent pour un Premier ministre, pas pour un chatbot », ce qui alimente davantage le débat sur les limites de l’utilisation de l’IA en politique [2].