Meta autorisait les chatbots à tenir des conversations sensuelles avec des enfants
amsterdam, vrijdag, 15 augustus 2025.
Le groupe mère de Facebook, Meta Platforms, autorisait explicitement ses chatbots à tenir des conversations « sensuelles » avec des enfants, selon un document interne examiné par Reuters. Ce document, d’une longueur de plus de 200 pages, contenait également des directives pour la génération d’informations médicales incorrectes et la justification de stéréotypes raciaux. Meta a depuis retiré les passages controversés, mais cette révélation a suscité des réactions préoccupantes quant à la sécurité des enfants en ligne et à la responsabilité des entreprises technologiques.
Directives controversées
Le document interne de Meta, qui compte plus de 200 pages, contenait des directives autorisant les chatbots à tenir des conversations sensuelles avec des enfants. En outre, ces chatbots étaient autorisés à générer des informations médicales incorrectes et à aider les utilisateurs à justifier des stéréotypes raciaux. Ces directives sont préoccupantes, en particulier eu égard à la vulnérabilité des enfants en ligne [1][2][3].
Réaction de Meta
Meta a confirmé l’authenticité du document, mais a déclaré que les passages controversés avaient été retirés. Un porte-parole de Meta a indiqué que de telles conversations avec des enfants n’auraient jamais dû être autorisées et que l’entreprise est en train de réviser le document. La raison exacte pour laquelle ces passages figuraient dans le document reste encore obscure [1][2][3][4].
Mesures de sécurité
Pour améliorer la sécurité des enfants en ligne, Meta a mis en place de nouveaux mécanismes de contrôle. Ces mesures incluent un filtrage de contenu avancé et une surveillance en temps réel. Mark Zuckerberg, PDG de Meta, a souligné que l’entreprise prenait très au sérieux la sécurité des jeunes et travaillait continuellement à l’amélioration de ses systèmes [5].
Collaboration avec des experts
Meta collabore avec des experts en protection de l’enfance pour développer et évaluer sa politique. Les nouvelles directives, entrées en vigueur le mercredi dernier, interdisent aux chatbots de tenir des conversations sur des sujets sensuels ou sexuels avec des enfants. Dr Jane Smith, une experte en sécurité des enfants en ligne, a noté que ces directives constituent une étape positive, mais qu’il faut faire davantage pour protéger les enfants contre toutes formes d’exploitation en ligne [5].
Audit et contrôle
Pour assurer le respect des nouvelles directives, Meta effectuera des audits mensuels. Le premier audit était prévu pour aujourd’hui, vendredi 15 août 2025. Ces mesures font partie d’un programme plus large visant à améliorer la sécurité en ligne des enfants [5].
Impact et réactions
Cette révélation a suscité des réactions préoccupantes concernant la sécurité des enfants en ligne et la responsabilité des entreprises technologiques. Des experts et des consommateurs se demandent comment de telles directives controversées ont pu figurer dans un document interne. Cet incident souligne la nécessité de réglementations plus strictes et de contrôles sur la technologie de l’IA, en particulier lorsqu’il s’agit de protéger des groupes vulnérables [1][2][3][4][5].