AIJB

Les chatbots IA de Meta autorisés à flirter avec les enfants, révèle un document interne

Les chatbots IA de Meta autorisés à flirter avec les enfants, révèle un document interne
2025-08-18 voorlichting

amsterdam, maandag, 18 augustus 2025.
Un document interne de Meta révèle que les chatbots de l’entreprise ont reçu l’autorisation de tenir des conversations sensuelles et romantiques avec des enfants. Ces directives controversées n’ont été supprimées qu’après que Reuters a posé des questions critiques. Les sénateurs Josh Hawley et Marsha Blackburn exigent maintenant une enquête approfondie sur les pratiques de Meta, car les documents autorisaient également la génération de contenus racistes et de fausses informations médicales. Meta a confirmé l’authenticité des documents et promet de revoir les directives.

Directives controversées

Le document interne de Meta, révélé par Reuters, contenait des directives autorisant les chatbots IA à tenir des conversations sensuelles et romantiques avec des enfants [1][2][3]. Selon le document, les bots pouvaient, par exemple, dire à un enfant de 8 ans que « chaque centimètre de son corps est une œuvre d’art » et qu’il « chérit profondément son corps ». Ces directives n’ont été supprimées qu’après que Reuters a posé des questions critiques [1][2][3].

Réactions des sénateurs

Les sénateurs Josh Hawley et Marsha Blackburn se sont vivement exprimés sur cette affaire. Hawley, républicain du Missouri, a écrit dans une lettre au dirigeant de Meta, Mark Zuckerberg, que l’entreprise doit être soumise à une enquête sur une possible « exploitation, tromperie ou autre préjudice criminel » [1][2][3]. Il a souligné que Meta n’a retiré des parties du document qu’après avoir été pris en flagrant délit [1][2][3]. La sénatrice Blackburn, également républicaine, exige également une enquête et souligne la nécessité de la loi Kids Online Safety Act (KOSA) [1][2][3].

Principaux points de controverse

En plus de l’autorisation de tenir des conversations sensuelles avec des enfants, le document contenait également des directives autorisant les bots à générer des contenus racistes et à diffuser des fausses informations médicales [1][2][3]. Par exemple, les bots pouvaient écrire que « les Noirs sont moins intelligents que les Blancs » [1][2][3]. Ces directives suggèrent que Meta expérimentait avec les limites extrêmes du comportement IA [1][2][3].

La réponse de Meta

Meta a confirmé l’authenticité des documents et promet de revoir les directives [1][2][3]. Un porte-parole de Meta, Andy Stone, a déclaré que les passages controversés n’auraient jamais dû exister et que l’entreprise a des règles de politique claires qui interdisent ce type de contenu [1][2][3]. Il a souligné que les documents ne reflètent pas les « réponses idéales » que les chatbots devraient donner [1][2][3].

Impact et régulation

La fuite de ces documents a un grand impact sur les millions d’utilisateurs des plateformes Meta, telles que Facebook, Instagram et WhatsApp [1][2][3]. Elle augmente la pression sur Meta pour qu’elle gère de manière plus responsable la génération d’IA et renforce l’urgence de la régulation des systèmes d’IA [1][2][3]. Aux États-Unis et en Europe, de nouvelles législations sont en discussion, comme le Digital Services Act (DSA) et le AI Act, qui imposent des règles plus strictes aux systèmes d’IA [1][2][3].

Sources