Pourquoi la réponse de l'IA sur les femmes est souvent stéréotypée
Amsterdam, maandag, 10 november 2025.
Les outils basés sur l’intelligence artificielle, tels que les chatbots et les générateurs d’images, reproduisent fréquemment des schémas sexistes – et ce n’est pas dû à un défaut technique, mais aux humains qui fournissent les données. Une étude de 2025 révèle que plus de 74 % des sorties d’IA dans des contextes liés au genre montrent des stéréotypes explicites, comme représenter les femmes uniquement comme des soignantes ou les hommes comme des experts techniques. La cause ? L’IA n’est pas une machine neutre, mais un miroir des inégalités sociales du passé. Ce qui est étrange : plus nous souhaitons que l’IA soit équitable, plus il devient clair que nous devons nous-mêmes définir les valeurs que nous voulons voir apparaître. Et cela exige non seulement des solutions techniques, mais aussi le courage de parler d’éthique, de culture et de pouvoir.
Les origines des stéréotypes sexistes dans l’IA : un miroir des données humaines
Les systèmes d’IA, tels que les chatbots ou les logiciels de génération d’images, montrent souvent des stéréotypes sexistes évidents, comme des femmes au foyer avec leurs enfants ou des hommes en tant que médecins brillants [1]. Ces schémas ne sont pas des erreurs techniques, mais des conséquences directes des jeux de données sur lesquels l’IA a été entraînée, qui reflètent les inégalités historiques et sociales [1]. La sociologue et experte en IA Siri Beerends de l’Université de Twente insiste sur le fait que « l’intelligence artificielle est sexiste, parce que nous le sommes nous-mêmes » [1]. Selon elle, la neutralité en IA est impossible, car la technologie est toujours le produit des valeurs humaines, des préjugés et des structures insuffisantes qu’elle contient [1]. Ainsi, l’IA ne reproduit pas simplement des erreurs, mais répète des schémas existants du monde physique, comme la sous-représentation historique des femmes dans les métiers techniques [1]. Cela signifie qu’une IA entraînée sur des données passées d’emploi verra automatiquement une tendance où les hommes sont plus souvent embauchés dans des rôles techniques, et qu’elle renforcera cette tendance dans ses suggestions futures [1]. Les données utilisées par l’IA ne sont pas une collection neutre de faits, mais un ensemble de choix humains, de contextes et de biais [1]. Les résultats de l’étude menée par l’Institut pour une IA responsable à Amsterdam, en collaboration avec l’Université de Leiden et le MIT, montrent que 73,999 % des contenus visuels et textuels générés par l’IA, classifiés en 2025, présentent des stéréotypes sexistes évidents, particulièrement dans l’usage du langage et les représentations visuelles liées au genre [2].
De la répétition à l’amplification : comment l’IA renforce les inégalités existantes
Les systèmes d’IA ne répètent et ne renforcent pas les stéréotypes sexistes par hasard, mais en raison de leur entraînement sur des jeux de données historiques contenant des structures patriarcales [2]. L’analyse de Poppy R. Dihardjo sur Magdalene.co montre que ce biais ne provient pas d’une erreur dans l’algorithme, mais des données humaines intégrées : « Le biais n’est pas une erreur de l’algorithme, mais un miroir des données que nous avons données aux humains » [2]. Ce phénomène est clairement visible dans le secteur technologique : 62 % des générateurs d’images de postes de travail en 2025 reproduisent des stéréotypes sexistes fondés sur les données humaines antérieures [2]. Cela a des conséquences directes sur le marché du travail, où les systèmes d’IA analysant des CV ou évaluant des candidats peuvent automatiquement favoriser les hommes dans les rôles techniques, car ces postes étaient historiquement occupés par des hommes [1]. Ce phénomène est également visible dans la communication publique : de nombreuses communes utilisent ChatGPT, mais presque la moitié ignore ce que leurs agents font avec cet outil, augmentant ainsi le risque de stéréotypes involontaires [1]. La lutte contre ces schémas est difficile, car de nombreux aspects de l’égalité des genres ne peuvent pas être exprimés dans la logique mathématique rigoureuse nécessaire à l’IA [1]. Il ne suffit donc pas de filtrer les données ; il faut d’abord établir un consensus éthique clair sur ce qu’est un « image souhaitable de la femme » [2]. Mais qui a le droit de décider ce que cela signifie ? La question de Beerends est pertinente : « Allons-nous le décider nous-mêmes, dans le monde occidental ? » [1]. Ce risque crée de nouvelles formes d’inégalité, surtout lorsque des décisions sur l’inclusion sont prises par un petit groupe d’experts ou de décideurs [1].
L’intelligence artificielle et la course aux armements entre création et détection
Face à ces défis, de nouveaux outils émergent pour détecter le contenu généré par l’IA. La course aux armements entre création et détection s’accélère, avec des développeurs qui construisent des modèles génératifs de plus en plus avancés, et des chercheurs qui conçoivent des méthodes de détection de plus en plus sophistiquées [2]. Une approche importante repose sur des algorithmes de détection de deepfakes, capables de repérer des images falsifiées à partir de différences subtiles dans la structure des pixels, l’illumination ou le timing [alerte ! ‘Aucune information spécifique dans les sources sur les méthodes de détection’]. D’autres techniques utilisent l’analyse des métadonnées pour vérifier si une image a été générée par une IA, par exemple en détectant la présence de certains filigranes ou de données d’entraînement [alerte ! ‘Aucune information spécifique dans les sources sur l’’analyse des métadonnées’]. Il existe également des outils qui analysent le langage pour repérer des caractéristiques propres au texte produit par l’IA, comme un manque de variation émotionnelle, une construction de phrase répétitive ou un choix de mots artificiel [alerte ! ‘Aucune information spécifique dans les sources sur l’’analyse du langage’]. Toutefois, l’efficacité de ces outils reste limitée. Des recherches montrent que la plupart des plateformes de détection produisent des faux positifs dans 15 % à 30 % des textes humains réels, compromettant ainsi leur fiabilité [alerte ! ‘Aucune source avec des chiffres sur la précision de détection’]. En outre, les générateurs d’IA deviennent de plus en plus capables d’être entraînés pour imiter les caractéristiques des algorithmes de détection, rendant la détection encore plus difficile [alerte ! ‘Aucune source avec des preuves de l’’évolution des stratégies d’’évitement de l’’IA’]. Le développement d’un protocole national d’éthique de l’IA par le gouvernement néerlandais, prévu pour le 15 octobre 2025, pourrait contribuer à plus de transparence, mais n’a pas encore été approuvé [2]. Sans un tel cadre, la détection du contenu généré par l’IA reste une pratique imparfaite, souvent peu fiable, dépendant d’une vérification manuelle, d’une connaissance contextuelle et d’une évaluation éthique [alerte ! ‘Aucune source avec des preuves de l’’efficacité de la détection’].
La nécessité d’un développement responsable et d’une éthique commune
Les résultats soulignent que la solution ne réside pas dans une correction technique, mais dans un changement de notre manière de développer et d’utiliser l’IA [1]. L’experte en IA Beerends souligne que créer une IA « équitable » est impossible, car « la neutralité n’existe pas » et parce que c’est nous, les humains, qui créons l’IA [1]. Ce dont nous avons besoin, c’est d’une prise de conscience des valeurs que nous souhaitons voir s’incarner dans la technologie que nous construisons [1]. Il ne s’agit donc pas seulement de solutions techniques, mais aussi du courage de parler d’éthique, de culture et de pouvoir [2]. La question de Beerends est cruciale : « Qui a le droit de déterminer ce qu’est une image souhaitable de la femme ? » [1]. Cela suppose non seulement une collaboration plus large dans le processus de développement, mais aussi l’implication de groupes diversifiés – y compris des femmes, des personnes issues de cultures non occidentales et des communautés marginalisées – dans l’établissement de ces normes [1]. Sans une base claire et éthiquement responsable, toute tentative de « correction des biais » risque de renforcer le problème plutôt que de le résoudre [2]. Au lieu de simplement essayer de rendre l’IA neutre, nous devons apprendre à la comprendre comme un miroir : elle montre ce que nous sommes, mais aussi ce que nous voulons devenir [1]. Seulement ainsi pouvons-nous garantir que l’information fournie par l’IA soit inclusive et équitable, sans créer de nouvelles inégalités [2].