nepnieuws
How the EU will try to cleanse the web of fake videos from 2026
Brussel, donderdag, 13 november 2025.
Imagine: a video of a well-known politician saying something they never said – and it is seen millions of times. Since 2023, AI-generated fake news, also called deepfakes, has increased by 300%. The European Union is responding with new legislation that, from 1 January 2026, will require all AI-generated media to be labelled – from political campaigns to ordinary social media posts. This will enable users to distinguish genuine from fake. The legislation, based on the AI Act corpus, is a direct response to growing uncertainty about truth and fiction. In particular, dissemination via algorithms on platforms such as TikTok and X (formerly Twitter) amplifies the impact of disinformation. Mandatory labelling is not merely a technical step but a crucial measure for preserving democratic transparency and trust in the digital space.
Comment l'UE tente d'assainir le web des vidéos truquées à partir de 2026
Brussel, donderdag, 13 november 2025.
Imaginez : une vidéo d’un homme politique connu disant quelque chose qu’il n’a jamais dit — et visionnée des millions de fois. Depuis 2023, les générations d’IA produisant de fausses informations, appelées deepfakes, ont augmenté de 300 %. L’Union européenne réagit par une nouvelle législation qui, à partir du 1er janvier 2026, oblige à étiqueter tous les médias générés par l’IA — des campagnes politiques aux simples publications sur les réseaux sociaux. Cela permettra aux utilisateurs de distinguer le réel du faux. La législation, fondée sur le corpus juridique du AI Act, est une réponse directe à l’incertitude croissante entre vérité et fiction. En particulier, la diffusion via des algorithmes sur des plateformes comme TikTok et X (anciennement Twitter) renforce l’impact de la désinformation. L’étiquetage obligatoire n’est pas seulement une étape technique, mais une mesure cruciale pour préserver la transparence démocratique et la confiance dans l’espace numérique.
Hoe de EU vanaf 2026 het web van nepvideo’s probeert te ontsmetten
Brussel, donderdag, 13 november 2025.
Stel je voor: een video van een bekende politieker die iets zegt wat hij nooit heeft gezegd – en die wordt miljoenen keren gezien. Sinds 2023 zijn AI-generaties van nepnieuws, ook wel deepfakes genoemd, met 300% toegenomen. De Europese Unie reageert met een nieuwe wetgeving die vanaf 1 januari 2026 alle AI-generatieve media verplicht labelt – van politieke campagnes tot gewone sociale media-posts. Dit maakt het voor gebruikers mogelijk om echt van gefakeerd te onderscheiden. De wetgeving, gebaseerd op het AI-Act-wetboek, is een directe reactie op de groeiende onzekerheid over waarheid en fictie. Met name de verspreiding via algoritmen op platforms als TikTok en X (voormalig Twitter) versterkt de impact van desinformatie. De verplichte labeling is niet alleen een technische stap, maar een cruciale maatregel voor het behoud van democratische transparantie en vertrouwen in de digitale ruimte.
How an AI Minister Challenges the Boundaries of Trust in Government
Tirana, woensdag, 12 november 2025.
In November 2025, Albania sparked astonishment and debate by appointing Diella, a virtual minister—an AI designed to ensure transparency in public procurement. What stands out most? The 83 digital assistants supporting her are not symbolic figures but fully functional AI systems that help parliamentarians analyse legislation and monitor meetings. While this marks a world first, public confidence remains low: only 11.6% of Albanians trust their government institutions, and many continue to leave the country. The real question is not whether AI technology can perform, but whether it can restore what trust has already been lost—a challenge far greater than mere technology.
Comment un ministre de l'IA remet en question les limites de la confiance dans l'administration
Tirana, woensdag, 12 november 2025.
En novembre 2025, l’Albanie a suscité étonnement et débat en nommant une ministre virtuelle, Diella – une intelligence artificielle chargée de garantir la transparence dans les marchés publics. Ce qui frappe le plus ? Les 83 assistants numériques qui la soutiennent ne sont pas des figures symboliques, mais des systèmes d’IA fonctionnels aidant les députés à analyser la législation et à suivre les séances parlementaires. Bien qu’il s’agisse d’un précédent mondial, le public n’est pas convaincu : seulement 11,6 % des Albanais font confiance à leurs institutions publiques, et de nombreux citoyens quittent le pays. La question ne porte pas sur la capacité technologique de l’IA, mais sur sa capacité à réparer ce qui a été perdu en matière de confiance – un défi bien plus profond que la simple innovation technique.
Hoe een AI-minister de grenzen van vertrouwen in de overheid uitdaagt
Tirana, woensdag, 12 november 2025.
In november 2025 zorgde Albanië voor verbazing en debat door een virtuele minister, Diella, aan te stellen – een AI die zou zorgen voor transparantie in overheidsopdrachten. Maar het meest opvallende feit? De 83 digitale assistenten die haar zouden ondersteunen, zijn geen symbolische figuren, maar functionerende AI-systemen die parlementsleden helpen bij het analyseren van wetgeving en het bijhouden van vergaderingen. Hoewel dit een wereldprimeur is, blijkt het publiek niet overtuigd: slechts 11,6% van de Albanezen vertrouwt hun overheidsinstituties, en veel mensen verlaten het land. De kwestie is niet of AI technologie kan, maar of zij kan herstellen wat vertrouwen is verloren gegaan – een uitdaging die veel meer is dan techniek.
Why a video of your face can be online without your consent
Brussel, dinsdag, 11 november 2025.
Steffi Mercie, known for her honest and personal content, reveals in her new VRT series how realistic yet false videos—known as deepfakes—are already being used today to threaten and blackmail people. The most shocking part? She shares that deepnudes of her have been circulating for years, despite her never having created those images herself. Her series, ‘Merci Mercie’, goes beyond technology: it explores how society can learn to cope with the impossibility of trusting what we see. Read more about ways you can protect yourself—and why media literacy is more crucial than ever.
Pourquoi une vidéo de ton visage peut être présente sur internet sans ton autorisation
Brussel, dinsdag, 11 november 2025.
Steffi Mercie, connue pour son contenu sincère et personnel, révèle dans sa nouvelle série VRT comment des vidéos réalistes mais fausses – appelées deepfakes – sont déjà utilisées aujourd’hui pour menacer et harceler des individus. Le plus choquant ? Elle explique qu’il existe déjà depuis des années des deepnudes la concernant, malgré le fait qu’elle n’ait jamais elle-même produit ces images. Sa série, intitulée ‘Merci Mercie’, va au-delà de la simple technique : elle explore la manière dont notre société peut apprendre à faire face à l’impossibilité de toujours croire ce que nous voyons. Découvrez comment vous pouvez vous protéger – et pourquoi l’éducation aux médias est plus que jamais cruciale.
Waarom een video van jouw gezicht op internet kan zijn zonder jouw toestemming
Brussel, dinsdag, 11 november 2025.
Steffi Mercie, bekend om haar eerlijke en persoonlijke content, ontsluiert in haar nieuwe VRT-serie hoe realistische maar valse video’s – genaamd deepfakes – vandaag de dag al worden gebruikt om mensen te bedreigen en af te persen. Het meest schokkende? Ze vertelt dat er al jaren deepnudes van haar circuleren, ondanks dat ze nooit zelf die beelden heeft gemaakt. Haar serie, ‘Merci Mercie’, gaat dieper dan alleen techniek: ze onderzoekt hoe we als maatschappij kunnen leren omgaan met de onmogelijkheid om meer te vertrouwen op wat we zien. Lees meer over de manieren waarop je jezelf kunt beschermen – en waarom media-geletterdheid nu meer dan ooit cruciaal is.
Did you know LinkedIn is using all your old profile data to train AI? | Here's how to block it
Amsterdam, woensdag, 5 november 2025.
Since 3 November 2025, LinkedIn has not only been using your current content, but also all your past profiles, messages, and connections—even those from 2003—for training its artificial intelligence. Although you have the option to disable this, it is enabled by default, meaning your data has already been incorporated into the system before you even know about it. The Dutch Authority for Personal Data (Autoriteit Persoonsgegevens) has previously warned: once your data is inside an AI model, you lose control over it. Most users are unaware their data is being collected, while LinkedIn claims the use is based on a ‘legitimate interest’. The good news is you can now, in just a few simple steps, keep your data out of AI training—this applies not only to future data, but also to historical data from the past.
Saviez-vous que LinkedIn utilise déjà toutes vos anciennes données de profil pour l’entraînement de l’IA ? | Voici comment l’empêcher
Amsterdam, woensdag, 5 november 2025.
Depuis le 3 novembre 2025, LinkedIn n’utilise pas seulement votre contenu actuel, mais aussi l’intégralité de vos anciens profils, messages et connexions – y compris ceux datant de 2003 – pour entraîner son intelligence artificielle. Bien qu’une option d’opt-out soit disponible, elle est activée par défaut, ce qui signifie que vos données sont déjà intégrées dans le système avant même que vous ne le sachiez. L’Autorité de protection des données (AP) a déjà mis en garde : une fois intégrées dans un modèle d’IA, vous perdez tout contrôle. La majorité des utilisateurs ignorent même que leurs données sont collectées, tandis que LinkedIn affirme que cette utilisation repose sur un « intérêt légitime ». Ce que vous pouvez faire, c’est maintenant, en seulement quelques étapes, empêcher vos données d’être utilisées pour l’entraînement de l’IA – et cela concerne non seulement les données futures, mais aussi celles du passé.
Wist u dat LinkedIn al uw oude profielgegevens gebruikt voor AI-training? | Zo kunt u het blokkeren
Amsterdam, woensdag, 5 november 2025.
Sinds 3 november 2025 gebruikt LinkedIn niet alleen uw huidige content, maar ook al uw oude profielen, berichten en connecties – zelfs die van 2003 – om zijn kunstmatige intelligentie te trainen. Hoewel u de optie hebt om dit uit te schakelen, is het standaard aangezet, wat betekent dat uw gegevens al in het systeem zitten voordat u het weet. De Autoriteit Persoonsgegevens waarschuwde al eerder: eenmaal in een AI-model, verliest u de controle. De meeste gebruikers weten niet eens dat hun data wordt ingezameld, terwijl LinkedIn zelf zegt dat het gebruik berust op een ‘gerechtvaardigd belang’. Wat u kunt doen, is nu in slechts een paar stappen uw gegevens buiten de AI-training houden – en dat geldt niet alleen voor toekomstige, maar ook voor verleden data.