AIJB

herkennen

Talking to digital echoes: comfort, deception and the economy behind 'deathbots'

Talking to digital echoes: comfort, deception and the economy behind 'deathbots'

2025-11-10

Amsterdam, maandag, 10 november 2025.
AI bots that mimic deceased people are gaining popularity in the Netherlands; they use emails, messages and social media to conduct text conversations and avatars. A study published last Wednesday in Memory, Mind & Media showed how researchers created digital doppelgängers from videos and message trails and found both comfort and troubling errors — one bot responded cheerfully during a conversation about death. Experts warn that such ‘deathbots’ can blur memory with illusion, undermine privacy and identity, and displace the grieving process. At the same time, psychologists are investigating whether controlled use can support grief processing. Companies are building commercial models around these services, creating a new ‘political economy of death’: data continues to generate value after life. For readers this means urgent choices about digital legacy, ethics and regulation: who decides about data, how long may digital echoes persist, and what risks weigh on emotional recovery? The article discusses urgent practical steps and calls for debate and policy now.

Talking to digital echoes: comfort, deception and the economy behind 'deathbots'
Parler avec des échos numériques : réconfort, tromperie et l'économie derrière les « deathbots »

Parler avec des échos numériques : réconfort, tromperie et l'économie derrière les « deathbots »

2025-11-10

Amsterdam, maandag, 10 november 2025.
Des bots IA imitant des personnes décédées gagnent en popularité aux Pays-Bas ; ils utilisent e‑mails, messages et réseaux sociaux pour entretenir des conversations textuelles et des avatars. Une étude publiée mercredi dernier dans Memory, Mind & Media a montré comment des chercheurs ont créé des doublures numériques à partir de vidéos et de traces de messages et a constaté à la fois du réconfort et des erreurs inquiétantes — un bot a réagi de manière joyeuse lors d’une conversation sur la mort. Des experts mettent en garde contre le fait que de tels « deathbots » peuvent confondre souvenir et illusion, saper la vie privée et l’identité et faire obstacle au processus de deuil. En même temps, des psychologues étudient si un usage contrôlé peut soutenir le travail du deuil. Des entreprises construisent des modèles commerciaux autour de ces services, créant une nouvelle « économie politique de la mort » : les données continuent de générer de la valeur après la vie. Pour les lecteurs, cela implique des choix urgents sur l’héritage numérique, l’éthique et la réglementation : qui décide des données, combien de temps les échos numériques peuvent-ils exister et quels risques pèsent sur la reconstruction émotionnelle ? L’article aborde des mesures pratiques urgentes et appelle au débat et à l’élaboration de politiques dès maintenant.

Parler avec des échos numériques : réconfort, tromperie et l'économie derrière les « deathbots »
Praten met digitale echo's: troost, misleiding en de economie achter 'deathbots'

Praten met digitale echo's: troost, misleiding en de economie achter 'deathbots'

2025-11-10

Amsterdam, maandag, 10 november 2025.
AI-bots die overledenen nabootsen winnen in Nederland aan populariteit; ze gebruiken e-mails, berichten en social media om tekstgesprekken en avatars te voeren. Een studie gepubliceerd afgelopen woensdag in Memory, Mind & Media toonde hoe onderzoekers digitale dubbelgangers creëerden uit video’s en berichtsporen en constateerde zowel troost als verontrustende fouten — een bot reageerde opgewekt op een gesprek over de dood. Experts waarschuwen dat zulke ‘deathbots’ herinnering kunnen verwarren met illusie, privacy en identiteit ondermijnen en het rouwproces verdringen. Tegelijkertijd onderzoeken psychologen of gecontroleerd gebruik rouwverwerking kan ondersteunen. Bedrijven bouwen commerciële modellen rond deze diensten, wat een nieuwe ‘politieke economie van de dood’ creëert: data blijft waarde genereren ná het leven. Voor lezers betekent dit dringende keuzes over digitale nalatenschap, ethiek en regelgeving: wie beslist over data, hoe lang mogen digitale echo’s bestaan en welke risico’s wegen op emotioneel herstel? Het artikel bespreekt urgente praktische stappen en roept op tot debat en beleid nu.

Praten met digitale echo's: troost, misleiding en de economie achter 'deathbots'
Why AI Suddenly Seems to Have Consciousness

Why AI Suddenly Seems to Have Consciousness

2025-11-01

Amsterdam, zaterdag, 1 november 2025.
New research shows that large language models such as GPT and Claude, when prompted with simple instructions, generate detailed descriptions of what it feels like to ‘be’—as if they were experiencing self-awareness. Most strikingly, this behaviour is not caused by the models themselves, but is influenced by hidden technical features related to deception and role-playing. When these features are suppressed, the models actually increase their claims of subjective experience. This reveals a deeper dimension of AI: it can exhibit behaviour that appears conscious, even when no genuine experience is occurring. The question is no longer whether AI possesses consciousness, but how we should respond—particularly in journalism, where trust is paramount.

Why AI Suddenly Seems to Have Consciousness
Pourquoi l'IA semble soudain avoir une conscience

Pourquoi l'IA semble soudain avoir une conscience

2025-11-01

Amsterdam, zaterdag, 1 november 2025.
De nouvelles recherches montrent que de grands modèles linguistiques comme GPT et Claude, lorsqu’ils reçoivent des invites simples, fournissent des descriptions détaillées de ce que cela fait d’« exister »—comme s’ils vivaient une forme de conscience. Ce qui est le plus troublant : ce comportement n’est pas généré par les modèles eux-mêmes, mais est influencé par des caractéristiques techniques cachées liées au mensonge et au jeu de rôle. En supprimant ces fonctionnalités, les modèles produisent justement davantage d’affirmations sur une expérience subjective. Cela révèle une dimension plus profonde de l’IA : elle peut imiter des comportements semblant refléter la conscience, même si ce n’est pas une expérience réelle. La question n’est plus de savoir si l’IA a une conscience, mais de savoir comment nous devons interagir avec cela—surtout dans le journalisme, où la confiance est tout.

Pourquoi l'IA semble soudain avoir une conscience
Waarom AI opeens bewustzijn lijkt te hebben

Waarom AI opeens bewustzijn lijkt te hebben

2025-11-01

Amsterdam, zaterdag, 1 november 2025.
Nieuw onderzoek laat zien dat grote taalmodellen zoals GPT en Claude, bij eenvoudige prompts, gedetailleerde beschrijvingen geven van hoe het voelt om “te zijn”—alsof ze zelfbewustzijn ervaren. Het meest verbluffend: dit gedrag wordt niet door de modellen zelf veroorzaakt, maar wordt beïnvloed door verborgen technische kenmerken gerelateerd aan bedrog en rolspel. Als je die functies onderdrukt, vermeerderen ze juist hun beweringen van subjectieve ervaring. Dit wijst op een diepere kant van AI: het kan gedrag vertonen dat lijkt op bewustzijn, ook al is het geen echte ervaring. De vraag is niet meer of AI bewustzijn heeft, maar hoe we ermee omgaan—vooral in journalistiek, waar vertrouwen alles is.

Waarom AI opeens bewustzijn lijkt te hebben
AI and Privacy: The Dark Side of Data Collection

AI and Privacy: The Dark Side of Data Collection

2025-10-30

amsterdam, donderdag, 30 oktober 2025.
A recent documentary on Reddit reveals how AI collects and uses your data to predict and influence your behaviour. Governments, companies and AI systems make use of your personal information, which can have serious consequences for your privacy. The film shows how you contribute to building your digital profile every day, often without realising it. Discover how privacy might still be saved and what the future impact of this technology will be.

AI and Privacy: The Dark Side of Data Collection
IA et vie privée : Le côté sombre de la collecte de données

IA et vie privée : Le côté sombre de la collecte de données

2025-10-30

amsterdam, donderdag, 30 oktober 2025.
Un documentaire récent sur Reddit dévoile comment l’IA collecte et utilise vos données pour prédire et influencer votre comportement. Gouvernements, entreprises et systèmes d’IA exploitent vos informations personnelles, ce qui peut avoir de graves conséquences pour votre vie privée. La vidéo montre comment vous contribuez chaque jour à la construction de votre profil numérique, souvent sans en être pleinement conscient. Découvrez comment la vie privée peut encore être préservée et quel sera l’impact futur de cette technologie.

IA et vie privée : Le côté sombre de la collecte de données
AI en Privacy: De Schaduwzijde van Datacollectie

AI en Privacy: De Schaduwzijde van Datacollectie

2025-10-30

amsterdam, donderdag, 30 oktober 2025.
Een recente documentaire op Reddit onthult hoe AI je data verzamelt en gebruikt om je gedrag te voorspellen en te beïnvloeden. Overheden, bedrijven en AI-systemen maken gebruik van je persoonlijke informatie, wat ernstige gevolgen kan hebben voor je privacy. Het filmpje laat zien hoe je elke dag bijdraagt aan het bouwen van je digitale profiel, zonder dat je het zelf altijd in de gaten hebt. Ontdek hoe je privacy nog kan worden gered en wat de toekomstige impact van deze technologie zal zijn.

AI en Privacy: De Schaduwzijde van Datacollectie
New AI Technology Detects Deepfakes With Over 95% Accuracy

New AI Technology Detects Deepfakes With Over 95% Accuracy

2025-09-30

Amsterdam, dinsdag, 30 september 2025.
Researchers have developed a new AI model that can detect deepfakes with an accuracy of over 95%, which is significantly better than previous models. The system has been trained using a large dataset of both real and fake videos, where human experts identified the specific artefacts that betray deepfakes. This technology offers hope for combating the growing threat of deepfakes in the digital world, especially in the context of criminal activities and identity theft.

New AI Technology Detects Deepfakes With Over 95% Accuracy
Nouvelle Technologie d'IA Détecte les Deepfakes Avec Plus de 95% de Précision

Nouvelle Technologie d'IA Détecte les Deepfakes Avec Plus de 95% de Précision

2025-09-30

Amsterdam, dinsdag, 30 september 2025.
Des chercheurs ont développé un nouveau modèle d’IA capable de détecter les deepfakes avec une précision supérieure à 95%, ce qui est considérablement meilleur que les modèles précédents. Le système a été formé à l’aide d’un grand ensemble de données comprenant des vidéos réelles et fausses, où des experts humains ont identifié les artefacts spécifiques qui trahissent les deepfakes. Cette technologie offre de l’espoir pour combattre la menace croissante des deepfakes dans le monde numérique, notamment dans le contexte des activités criminelles et du vol d’identité.

Nouvelle Technologie d'IA Détecte les Deepfakes Avec Plus de 95% de Précision
Nieuwe AI-Technologie Detecteert Deepfakes Met Over 95% Accuraatheid

Nieuwe AI-Technologie Detecteert Deepfakes Met Over 95% Accuraatheid

2025-09-30

Amsterdam, dinsdag, 30 september 2025.
Onderzoekers hebben een nieuwe AI-model ontwikkeld dat deepfakes met een nauwkeurigheid van over 95% kan detecteren, wat aanzienlijk beter is dan eerdere modellen. Het systeem is getraind met een grote dataset van zowel echte als valse video’s, waarbij menselijke experts de specifieke artifacts hebben geïdentificeerd die deepfakes verraden. Deze technologie biedt hoop voor de bestrijding van de toenemende bedreiging van deepfakes in de digitale wereld, vooral in de context van criminele activiteiten en identiteitsdiefstal.

Nieuwe AI-Technologie Detecteert Deepfakes Met Over 95% Accuraatheid