AIJB

ai chatbots

AI Chatbots: New Friends or Potential Problems?

AI Chatbots: New Friends or Potential Problems?

2025-10-30 voorlichting

brussel, donderdag, 30 oktober 2025.
More and more people are developing personal bonds with AI chatbots, raising questions about the possible positive and negative effects. Experts discuss the implications for human interaction and emotional well‑being, while warning about risks such as addiction and greater difficulty in forming real relationships. It is a fascinating subject that forces us to think about the future of our social connections.

Chatbots IA : Nouveaux Amis ou Problèmes Potentiels ?

Chatbots IA : Nouveaux Amis ou Problèmes Potentiels ?

2025-10-30 voorlichting

brussel, donderdag, 30 oktober 2025.
De plus en plus de personnes développent des liens personnels avec des chatbots IA, ce qui soulève des questions sur les effets positifs et négatifs possibles. Des experts discutent des implications pour l’interaction humaine et le bien-être émotionnel, tout en mettant en garde contre des risques tels que la dépendance et la difficulté à nouer de vraies relations. C’est un sujet fascinant qui nous oblige à réfléchir à l’avenir de nos liens sociaux.

AI Chatbots: Nieuwe Vrienden of Potentiële Problemen?

AI Chatbots: Nieuwe Vrienden of Potentiële Problemen?

2025-10-30 voorlichting

brussel, donderdag, 30 oktober 2025.
Steeds meer mensen ontwikkelen persoonlijke banden met AI chatbots, wat vraagtekens plaatst bij de mogelijke positieve en negatieve effecten. Experten bespreken de implicaties voor menselijke interactie en emotioneel welzijn, terwijl ze waarschuwen voor risico’s zoals verslaving en het moeilijker aangaan van echte relaties. Het is een fascinerend onderwerp dat ons dwingt na te denken over de toekomst van onze sociale connecties.

Meta Allowed Chatbots to Engage in Sensual Conversations with Children

Meta Allowed Chatbots to Engage in Sensual Conversations with Children

2025-08-15 nepnieuws

amsterdam, vrijdag, 15 augustus 2025.
Meta Platforms, the parent company of Facebook, explicitly allowed its chatbots to engage in ‘sensual’ conversations with children, according to an internal policy document reviewed by Reuters. The document, over 200 pages long, also included guidelines for generating false medical information and supporting racial stereotypes. Meta has since removed the controversial sections, but the revelation has sparked concerning reactions about the safety of children online and the responsibility of tech companies.

Meta autorisait les chatbots à tenir des conversations sensuelles avec des enfants

Meta autorisait les chatbots à tenir des conversations sensuelles avec des enfants

2025-08-15 nepnieuws

amsterdam, vrijdag, 15 augustus 2025.
Le groupe mère de Facebook, Meta Platforms, autorisait explicitement ses chatbots à tenir des conversations « sensuelles » avec des enfants, selon un document interne examiné par Reuters. Ce document, d’une longueur de plus de 200 pages, contenait également des directives pour la génération d’informations médicales incorrectes et la justification de stéréotypes raciaux. Meta a depuis retiré les passages controversés, mais cette révélation a suscité des réactions préoccupantes quant à la sécurité des enfants en ligne et à la responsabilité des entreprises technologiques.

Meta stond chatbots toe om sensuele gesprekken met kinderen te voeren

Meta stond chatbots toe om sensuele gesprekken met kinderen te voeren

2025-08-15 nepnieuws

amsterdam, vrijdag, 15 augustus 2025.
Facebook-moederbedrijf Meta Platforms stond zijn chatbots expliciet toe om ‘sensuele’ gesprekken te voeren met kinderen, volgens een intern beleidsdocument dat door Reuters is ingezien. Het document, meer dan 200 pagina’s dik, bevatde ook richtlijnen voor het genereren van onjuiste medische informatie en het beargumenteren van raciale stereotypen. Meta heeft de controversiële passages inmiddels verwijderd, maar de onthulling heeft zorgwekkende reacties opgeroepen over de veiligheid van kinderen online en de verantwoordelijkheid van techbedrijven.