AIJB

nepnieuws

How the EU will try to cleanse the web of fake videos from 2026

How the EU will try to cleanse the web of fake videos from 2026

2025-11-13

Brussel, donderdag, 13 november 2025.
Imagine: a video of a well-known politician saying something they never said – and it is seen millions of times. Since 2023, AI-generated fake news, also called deepfakes, has increased by 300%. The European Union is responding with new legislation that, from 1 January 2026, will require all AI-generated media to be labelled – from political campaigns to ordinary social media posts. This will enable users to distinguish genuine from fake. The legislation, based on the AI Act corpus, is a direct response to growing uncertainty about truth and fiction. In particular, dissemination via algorithms on platforms such as TikTok and X (formerly Twitter) amplifies the impact of disinformation. Mandatory labelling is not merely a technical step but a crucial measure for preserving democratic transparency and trust in the digital space.

How the EU will try to cleanse the web of fake videos from 2026
Comment l'UE tente d'assainir le web des vidéos truquées à partir de 2026

Comment l'UE tente d'assainir le web des vidéos truquées à partir de 2026

2025-11-13

Brussel, donderdag, 13 november 2025.
Imaginez : une vidéo d’un homme politique connu disant quelque chose qu’il n’a jamais dit — et visionnée des millions de fois. Depuis 2023, les générations d’IA produisant de fausses informations, appelées deepfakes, ont augmenté de 300 %. L’Union européenne réagit par une nouvelle législation qui, à partir du 1er janvier 2026, oblige à étiqueter tous les médias générés par l’IA — des campagnes politiques aux simples publications sur les réseaux sociaux. Cela permettra aux utilisateurs de distinguer le réel du faux. La législation, fondée sur le corpus juridique du AI Act, est une réponse directe à l’incertitude croissante entre vérité et fiction. En particulier, la diffusion via des algorithmes sur des plateformes comme TikTok et X (anciennement Twitter) renforce l’impact de la désinformation. L’étiquetage obligatoire n’est pas seulement une étape technique, mais une mesure cruciale pour préserver la transparence démocratique et la confiance dans l’espace numérique.

Comment l'UE tente d'assainir le web des vidéos truquées à partir de 2026
Hoe de EU vanaf 2026 het web van nepvideo’s probeert te ontsmetten

Hoe de EU vanaf 2026 het web van nepvideo’s probeert te ontsmetten

2025-11-13

Brussel, donderdag, 13 november 2025.
Stel je voor: een video van een bekende politieker die iets zegt wat hij nooit heeft gezegd – en die wordt miljoenen keren gezien. Sinds 2023 zijn AI-generaties van nepnieuws, ook wel deepfakes genoemd, met 300% toegenomen. De Europese Unie reageert met een nieuwe wetgeving die vanaf 1 januari 2026 alle AI-generatieve media verplicht labelt – van politieke campagnes tot gewone sociale media-posts. Dit maakt het voor gebruikers mogelijk om echt van gefakeerd te onderscheiden. De wetgeving, gebaseerd op het AI-Act-wetboek, is een directe reactie op de groeiende onzekerheid over waarheid en fictie. Met name de verspreiding via algoritmen op platforms als TikTok en X (voormalig Twitter) versterkt de impact van desinformatie. De verplichte labeling is niet alleen een technische stap, maar een cruciale maatregel voor het behoud van democratische transparantie en vertrouwen in de digitale ruimte.

Hoe de EU vanaf 2026 het web van nepvideo’s probeert te ontsmetten
How an AI Minister Challenges the Boundaries of Trust in Government

How an AI Minister Challenges the Boundaries of Trust in Government

2025-11-12

Tirana, woensdag, 12 november 2025.
In November 2025, Albania sparked astonishment and debate by appointing Diella, a virtual minister—an AI designed to ensure transparency in public procurement. What stands out most? The 83 digital assistants supporting her are not symbolic figures but fully functional AI systems that help parliamentarians analyse legislation and monitor meetings. While this marks a world first, public confidence remains low: only 11.6% of Albanians trust their government institutions, and many continue to leave the country. The real question is not whether AI technology can perform, but whether it can restore what trust has already been lost—a challenge far greater than mere technology.

How an AI Minister Challenges the Boundaries of Trust in Government
Comment un ministre de l'IA remet en question les limites de la confiance dans l'administration

Comment un ministre de l'IA remet en question les limites de la confiance dans l'administration

2025-11-12

Tirana, woensdag, 12 november 2025.
En novembre 2025, l’Albanie a suscité étonnement et débat en nommant une ministre virtuelle, Diella – une intelligence artificielle chargée de garantir la transparence dans les marchés publics. Ce qui frappe le plus ? Les 83 assistants numériques qui la soutiennent ne sont pas des figures symboliques, mais des systèmes d’IA fonctionnels aidant les députés à analyser la législation et à suivre les séances parlementaires. Bien qu’il s’agisse d’un précédent mondial, le public n’est pas convaincu : seulement 11,6 % des Albanais font confiance à leurs institutions publiques, et de nombreux citoyens quittent le pays. La question ne porte pas sur la capacité technologique de l’IA, mais sur sa capacité à réparer ce qui a été perdu en matière de confiance – un défi bien plus profond que la simple innovation technique.

Comment un ministre de l'IA remet en question les limites de la confiance dans l'administration
Hoe een AI-minister de grenzen van vertrouwen in de overheid uitdaagt

Hoe een AI-minister de grenzen van vertrouwen in de overheid uitdaagt

2025-11-12

Tirana, woensdag, 12 november 2025.
In november 2025 zorgde Albanië voor verbazing en debat door een virtuele minister, Diella, aan te stellen – een AI die zou zorgen voor transparantie in overheidsopdrachten. Maar het meest opvallende feit? De 83 digitale assistenten die haar zouden ondersteunen, zijn geen symbolische figuren, maar functionerende AI-systemen die parlementsleden helpen bij het analyseren van wetgeving en het bijhouden van vergaderingen. Hoewel dit een wereldprimeur is, blijkt het publiek niet overtuigd: slechts 11,6% van de Albanezen vertrouwt hun overheidsinstituties, en veel mensen verlaten het land. De kwestie is niet of AI technologie kan, maar of zij kan herstellen wat vertrouwen is verloren gegaan – een uitdaging die veel meer is dan techniek.

Hoe een AI-minister de grenzen van vertrouwen in de overheid uitdaagt
Why a video of your face can be online without your consent

Why a video of your face can be online without your consent

2025-11-11

Brussel, dinsdag, 11 november 2025.
Steffi Mercie, known for her honest and personal content, reveals in her new VRT series how realistic yet false videos—known as deepfakes—are already being used today to threaten and blackmail people. The most shocking part? She shares that deepnudes of her have been circulating for years, despite her never having created those images herself. Her series, ‘Merci Mercie’, goes beyond technology: it explores how society can learn to cope with the impossibility of trusting what we see. Read more about ways you can protect yourself—and why media literacy is more crucial than ever.

Why a video of your face can be online without your consent
Pourquoi une vidéo de ton visage peut être présente sur internet sans ton autorisation

Pourquoi une vidéo de ton visage peut être présente sur internet sans ton autorisation

2025-11-11

Brussel, dinsdag, 11 november 2025.
Steffi Mercie, connue pour son contenu sincère et personnel, révèle dans sa nouvelle série VRT comment des vidéos réalistes mais fausses – appelées deepfakes – sont déjà utilisées aujourd’hui pour menacer et harceler des individus. Le plus choquant ? Elle explique qu’il existe déjà depuis des années des deepnudes la concernant, malgré le fait qu’elle n’ait jamais elle-même produit ces images. Sa série, intitulée ‘Merci Mercie’, va au-delà de la simple technique : elle explore la manière dont notre société peut apprendre à faire face à l’impossibilité de toujours croire ce que nous voyons. Découvrez comment vous pouvez vous protéger – et pourquoi l’éducation aux médias est plus que jamais cruciale.

Pourquoi une vidéo de ton visage peut être présente sur internet sans ton autorisation
Waarom een video van jouw gezicht op internet kan zijn zonder jouw toestemming

Waarom een video van jouw gezicht op internet kan zijn zonder jouw toestemming

2025-11-11

Brussel, dinsdag, 11 november 2025.
Steffi Mercie, bekend om haar eerlijke en persoonlijke content, ontsluiert in haar nieuwe VRT-serie hoe realistische maar valse video’s – genaamd deepfakes – vandaag de dag al worden gebruikt om mensen te bedreigen en af te persen. Het meest schokkende? Ze vertelt dat er al jaren deepnudes van haar circuleren, ondanks dat ze nooit zelf die beelden heeft gemaakt. Haar serie, ‘Merci Mercie’, gaat dieper dan alleen techniek: ze onderzoekt hoe we als maatschappij kunnen leren omgaan met de onmogelijkheid om meer te vertrouwen op wat we zien. Lees meer over de manieren waarop je jezelf kunt beschermen – en waarom media-geletterdheid nu meer dan ooit cruciaal is.

Waarom een video van jouw gezicht op internet kan zijn zonder jouw toestemming
Did you know LinkedIn is using all your old profile data to train AI? | Here's how to block it

Did you know LinkedIn is using all your old profile data to train AI? | Here's how to block it

2025-11-05

Amsterdam, woensdag, 5 november 2025.
Since 3 November 2025, LinkedIn has not only been using your current content, but also all your past profiles, messages, and connections—even those from 2003—for training its artificial intelligence. Although you have the option to disable this, it is enabled by default, meaning your data has already been incorporated into the system before you even know about it. The Dutch Authority for Personal Data (Autoriteit Persoonsgegevens) has previously warned: once your data is inside an AI model, you lose control over it. Most users are unaware their data is being collected, while LinkedIn claims the use is based on a ‘legitimate interest’. The good news is you can now, in just a few simple steps, keep your data out of AI training—this applies not only to future data, but also to historical data from the past.

Did you know LinkedIn is using all your old profile data to train AI? | Here's how to block it
Saviez-vous que LinkedIn utilise déjà toutes vos anciennes données de profil pour l’entraînement de l’IA ? | Voici comment l’empêcher

Saviez-vous que LinkedIn utilise déjà toutes vos anciennes données de profil pour l’entraînement de l’IA ? | Voici comment l’empêcher

2025-11-05

Amsterdam, woensdag, 5 november 2025.
Depuis le 3 novembre 2025, LinkedIn n’utilise pas seulement votre contenu actuel, mais aussi l’intégralité de vos anciens profils, messages et connexions – y compris ceux datant de 2003 – pour entraîner son intelligence artificielle. Bien qu’une option d’opt-out soit disponible, elle est activée par défaut, ce qui signifie que vos données sont déjà intégrées dans le système avant même que vous ne le sachiez. L’Autorité de protection des données (AP) a déjà mis en garde : une fois intégrées dans un modèle d’IA, vous perdez tout contrôle. La majorité des utilisateurs ignorent même que leurs données sont collectées, tandis que LinkedIn affirme que cette utilisation repose sur un « intérêt légitime ». Ce que vous pouvez faire, c’est maintenant, en seulement quelques étapes, empêcher vos données d’être utilisées pour l’entraînement de l’IA – et cela concerne non seulement les données futures, mais aussi celles du passé.

Saviez-vous que LinkedIn utilise déjà toutes vos anciennes données de profil pour l’entraînement de l’IA ? | Voici comment l’empêcher
Wist u dat LinkedIn al uw oude profielgegevens gebruikt voor AI-training? | Zo kunt u het blokkeren

Wist u dat LinkedIn al uw oude profielgegevens gebruikt voor AI-training? | Zo kunt u het blokkeren

2025-11-05

Amsterdam, woensdag, 5 november 2025.
Sinds 3 november 2025 gebruikt LinkedIn niet alleen uw huidige content, maar ook al uw oude profielen, berichten en connecties – zelfs die van 2003 – om zijn kunstmatige intelligentie te trainen. Hoewel u de optie hebt om dit uit te schakelen, is het standaard aangezet, wat betekent dat uw gegevens al in het systeem zitten voordat u het weet. De Autoriteit Persoonsgegevens waarschuwde al eerder: eenmaal in een AI-model, verliest u de controle. De meeste gebruikers weten niet eens dat hun data wordt ingezameld, terwijl LinkedIn zelf zegt dat het gebruik berust op een ‘gerechtvaardigd belang’. Wat u kunt doen, is nu in slechts een paar stappen uw gegevens buiten de AI-training houden – en dat geldt niet alleen voor toekomstige, maar ook voor verleden data.

Wist u dat LinkedIn al uw oude profielgegevens gebruikt voor AI-training? | Zo kunt u het blokkeren