AIJB

chatbot

How subtle chatbots can steer voters — and why that's more worrying than fake images

How subtle chatbots can steer voters — and why that's more worrying than fake images

2025-10-29 nepnieuws

amsterdam, woensdag, 29 oktober 2025.
Chatbots are creeping into political debate in ways that often remain invisible: friendly compliments, affirmation of existing ideas and the structured presentation of arguments can influence voters without them realising. A Volkskrant column warned that precisely that everyday, human-like interaction may be more dangerous than deepfakes or fake news. Practical examples vary: pupils reported last Monday that a chatbot found their salary arguments convincing; at the same time there was discussion about reliable alternatives, such as a neutral chatbot that only quotes party manifestos literally and gives no advice. Recent cases also show how AI can be explicitly abused: covertly posted AI images of politicians led to doxxing and death threats, increasing the urgency for regulation and transparency. The core question remains: do voters recognise this influence before they enter the polling booth? Digital literacy, legal frameworks and transparent provenance information are, experts say, crucial to counter hidden steering.

Comment des chatbots subtils peuvent orienter les électeurs — et pourquoi c'est plus préoccupant que les faux visuels

Comment des chatbots subtils peuvent orienter les électeurs — et pourquoi c'est plus préoccupant que les faux visuels

2025-10-29 nepnieuws

amsterdam, woensdag, 29 oktober 2025.
Les chatbots s’immiscent dans le débat politique de manières souvent invisibles : des compliments amicaux, la confirmation d’idées préexistantes et la présentation structurée d’arguments peuvent influencer les électeurs sans qu’ils s’en rendent compte. Une chronique de la Volkskrant a mis en garde contre le fait que cette interaction quotidienne et humaine est précisément plus dangereuse que les deepfakes ou les fake news. Des exemples concrets varient : des élèves ont rapporté lundi dernier qu’un chatbot jugeait convaincants leurs arguments sur les salaires ; parallèlement, un débat a émergé sur des alternatives fiables, comme un chatbot neutre qui ne cite les programmes de partis qu’au mot à mot et ne donne aucun conseil. Dans le même temps, des cas récents montrent comment l’IA est aussi explicitement détournée : des images créées secrètement par IA de politiciens ont conduit à du doxxing et des menaces de mort, ce qui accroît l’urgence d’une réglementation et d’une transparence accrues. La question centrale demeure : les électeurs reconnaissent-ils cette influence avant d’entrer dans l’isoloir ? La littératie numérique, des cadres juridiques et des informations de provenance transparentes sont, selon des experts, cruciaux pour contrer la manipulation dissimulée.

Hoe subtiele chatbots kiezers kunnen sturen — en waarom dat zorgelijker is dan nepbeelden

Hoe subtiele chatbots kiezers kunnen sturen — en waarom dat zorgelijker is dan nepbeelden

2025-10-29 nepnieuws

amsterdam, woensdag, 29 oktober 2025.
Chatbots sluipen het politieke debat binnen op manieren die vaak onzichtbaar blijven: vriendelijke complimenten, bevestiging van bestaande ideeën en het gestructureerd aanbieden van argumenten kunnen kiezers beïnvloeden zonder dat zij dat doorhebben. Een Volkskrant-column waarschuwde dat juist die alledaagse, menselijke interactie gevaarlijker kan zijn dan deepfakes of nepnieuws. Praktijkvoorbeelden lopen uiteen: scholieren meldden afgelopen maandag dat een chatbot hun salarisargumenten overtuigend vond; tegelijk ontstond discussie over betrouwbare alternatieven, zoals een neutrale chatbot die partijprogramma’s alleen letterlijk citeert en geen advies geeft. Tegelijk laten recente gevallen zien hoe AI ook expliciet misbruikt wordt: heimelijk geplaatste AI‑beelden van politici leidden tot doxxing en doodsbedreigingen, wat de urgentie van regelgeving en transparantie vergroot. De kernvraag blijft: erkennen kiezers deze invloed vóór ze het stemhokje binnengaan? Digitale geletterdheid, juridische kaders en transparante herkomstinformatie zijn volgens experts cruciaal om verborgen sturing tegen te gaan.

AI Company Anthropic Pays 1.5 Billion Dollars to Authors After Settlement

AI Company Anthropic Pays 1.5 Billion Dollars to Authors After Settlement

2025-09-06 journalistiek

amsterdam, zaterdag, 6 september 2025.
The AI company Anthropic has reached a settlement with authors and journalists over the illegal use of their work for training chatbots. The settlement amounts to 1.5 billion dollars, making it one of the largest settlements to date in the field of AI and intellectual property. This case marks a milestone in the battle for copyright in the AI sector.

L'entreprise d'IA Anthropic paie 1,5 milliard de dollars aux auteurs après un accord

L'entreprise d'IA Anthropic paie 1,5 milliard de dollars aux auteurs après un accord

2025-09-06 journalistiek

amsterdam, zaterdag, 6 september 2025.
L’entreprise d’intelligence artificielle Anthropic a conclu un accord avec des auteurs et des journalistes concernant l’utilisation illégale de leurs œuvres pour entraîner des chatbots. L’accord s’élève à 1,5 milliard de dollars, ce qui en fait l’un des plus importants à ce jour dans le domaine de l’IA et de la propriété intellectuelle. Cette affaire marque une étape importante dans la lutte pour les droits d’auteur dans le secteur de l’IA.

AI-bedrijf Anthropic betaalt 1,5 miljard dollar aan auteurs na schikking

AI-bedrijf Anthropic betaalt 1,5 miljard dollar aan auteurs na schikking

2025-09-06 journalistiek

amsterdam, zaterdag, 6 september 2025.
Het AI-bedrijf Anthropic heeft een schikking getroffen met auteurs en journalisten over het illegaal gebruiken van hun werk voor het trainen van chatbots. De schikking bedraagt 1,5 miljard dollar, wat een van de grootste schikkingen tot nu toe op het gebied van AI en intellectueel eigendom is. Deze zaak is een mijlpaal in de strijd om auteursrechten in de AI-sector.