AI-bots
L'UE envisage des interdictions directes sur les bots d'IA menaçant la démocratie
Brussel, zondag, 16 november 2025.
Imaginez : un site web qui diffuse de fausses nouvelles sans avertissement, ou un bot d’IA qui manipule des millions d’utilisateurs sans qu’il soit possible d’y faire quoi que ce soit. L’Union européenne travaille actuellement à développer un outil puissant pour bloquer directement ce type de automatisation nuisible. Ce qui frappe le plus : on envisage d’interdire des sites web et des bots d’IA par voie d’interdiction directe – sans procédure juridique longue et complexe. Cette initiative répond à une inquiétude croissante concernant la manipulation pendant les élections, où l’IA a déjà été utilisée des centaines de fois. Ces propositions font partie d’une réforme ambitieuse de la Loi sur l’IA et du RGPD, visant à protéger les processus démocratiques sans entraver l’innovation. La mesure n’est pas encore décidée, mais l’idée qu’une loi sur l’IA puisse autoriser une intervention immédiate est l’une des évolutions les plus préoccupantes en matière de sécurité numérique cette semaine.
EU overweegt directe verboden op AI-bots die democratie bedreigen
Brussel, zondag, 16 november 2025.
Stel je voor: een website die zonder waarschuwing nepnieuws verspreidt, of een AI-bot die miljoenen gebruikers manipuleert zonder dat er een greep te maken is. De Europese Unie is nu bezig een krachtig middel te ontwikkelen om dit soort schadelijke automatiseringen direct te blokkeren. Het meest opvallende: er wordt overwogen om websites en AI-bots in te roepen met een direct verbod – zonder lang juridisch gedoe. Dat komt onder druk van groeiende zorgen over manipulatie tijdens verkiezingen, waar AI al honderden keren is gebruikt. De plannen zijn onderdeel van een grootschalige hervorming van de AI Act en de AVG, met als doel democratische processen te beschermen zonder de innovatie in de weg te staan. De maatregel is nog niet beslist, maar het idee dat een AI-wet een directe handgreep toestaat, is een van de meest verontrustende ontwikkelingen in de digitale veiligheid deze week.
Talking to digital echoes: comfort, deception and the economy behind 'deathbots'
Amsterdam, maandag, 10 november 2025.
AI bots that mimic deceased people are gaining popularity in the Netherlands; they use emails, messages and social media to conduct text conversations and avatars. A study published last Wednesday in Memory, Mind & Media showed how researchers created digital doppelgängers from videos and message trails and found both comfort and troubling errors — one bot responded cheerfully during a conversation about death. Experts warn that such ‘deathbots’ can blur memory with illusion, undermine privacy and identity, and displace the grieving process. At the same time, psychologists are investigating whether controlled use can support grief processing. Companies are building commercial models around these services, creating a new ‘political economy of death’: data continues to generate value after life. For readers this means urgent choices about digital legacy, ethics and regulation: who decides about data, how long may digital echoes persist, and what risks weigh on emotional recovery? The article discusses urgent practical steps and calls for debate and policy now.
Parler avec des échos numériques : réconfort, tromperie et l'économie derrière les « deathbots »
Amsterdam, maandag, 10 november 2025.
Des bots IA imitant des personnes décédées gagnent en popularité aux Pays-Bas ; ils utilisent e‑mails, messages et réseaux sociaux pour entretenir des conversations textuelles et des avatars. Une étude publiée mercredi dernier dans Memory, Mind & Media a montré comment des chercheurs ont créé des doublures numériques à partir de vidéos et de traces de messages et a constaté à la fois du réconfort et des erreurs inquiétantes — un bot a réagi de manière joyeuse lors d’une conversation sur la mort. Des experts mettent en garde contre le fait que de tels « deathbots » peuvent confondre souvenir et illusion, saper la vie privée et l’identité et faire obstacle au processus de deuil. En même temps, des psychologues étudient si un usage contrôlé peut soutenir le travail du deuil. Des entreprises construisent des modèles commerciaux autour de ces services, créant une nouvelle « économie politique de la mort » : les données continuent de générer de la valeur après la vie. Pour les lecteurs, cela implique des choix urgents sur l’héritage numérique, l’éthique et la réglementation : qui décide des données, combien de temps les échos numériques peuvent-ils exister et quels risques pèsent sur la reconstruction émotionnelle ? L’article aborde des mesures pratiques urgentes et appelle au débat et à l’élaboration de politiques dès maintenant.
Praten met digitale echo's: troost, misleiding en de economie achter 'deathbots'
Amsterdam, maandag, 10 november 2025.
AI-bots die overledenen nabootsen winnen in Nederland aan populariteit; ze gebruiken e-mails, berichten en social media om tekstgesprekken en avatars te voeren. Een studie gepubliceerd afgelopen woensdag in Memory, Mind & Media toonde hoe onderzoekers digitale dubbelgangers creëerden uit video’s en berichtsporen en constateerde zowel troost als verontrustende fouten — een bot reageerde opgewekt op een gesprek over de dood. Experts waarschuwen dat zulke ‘deathbots’ herinnering kunnen verwarren met illusie, privacy en identiteit ondermijnen en het rouwproces verdringen. Tegelijkertijd onderzoeken psychologen of gecontroleerd gebruik rouwverwerking kan ondersteunen. Bedrijven bouwen commerciële modellen rond deze diensten, wat een nieuwe ‘politieke economie van de dood’ creëert: data blijft waarde genereren ná het leven. Voor lezers betekent dit dringende keuzes over digitale nalatenschap, ethiek en regelgeving: wie beslist over data, hoe lang mogen digitale echo’s bestaan en welke risico’s wegen op emotioneel herstel? Het artikel bespreekt urgente praktische stappen en roept op tot debat en beleid nu.
Anthropic Develops Spy AI for US Government
amsterdam, zondag, 8 juni 2025.
Anthropic has developed an AI chatbot named Claude Gov that is specifically designed to process classified information for the US government. This chatbot aids in strategic planning, intelligence analysis, and operational support, with access restricted to government personnel. An interesting aspect is that Claude Gov excels at recognising and translating languages and dialects, which is crucial for intelligence work. However, it is essential that the AI does not produce hallucinations, as incorrect information can have severe consequences for national security.
Anthropic développe un IA-espion pour le gouvernement américain
amsterdam, zondag, 8 juni 2025.
Anthropic a développé un chatbot IA nommé Claude Gov spécialement conçu pour traiter des informations confidentielles pour le gouvernement américain. Ce chatbot aide à la planification stratégique, l’analyse des renseignements et le soutien opérationnel, avec un accès limité aux employés du gouvernement. Un aspect intéressant est que Claude Gov est meilleur dans la reconnaissance et la traduction des langues et des dialectes, ce qui est crucial pour le travail des renseignements. Cependant, il est essentiel que l’IA ne produise pas d’hallucinations, car des informations incorrectes peuvent avoir des conséquences graves pour la sécurité nationale.
Anthropic ontwikkelt spionnen-AI voor Amerikaanse overheid
amsterdam, zondag, 8 juni 2025.
Anthropic heeft een AI-chatbot genaamd Claude Gov ontwikkeld die speciaal is ontworpen om geheime informatie voor de Amerikaanse overheid te verwerken. Deze chatbot helpt bij strategische planning, inlichtingenanalyse en operationele ondersteuning, met toegang beperkt tot overheidsmedewerkers. Een interessant aspect is dat Claude Gov beter is in het herkennen en vertalen van talen en dialecten, wat cruciaal is voor inlichtingenwerk. Echter, het is essentieel dat de AI geen hallucinaties produceert, want onjuiste informatie kan ernstige gevolgen hebben voor nationale veiligheid.