nepnieuws
Hoe Vietnam AI-gegenereerd nepnieuws proactief wil blokkeren
Hanoi, vrijdag, 21 november 2025.
Vietnam neemt een unieke stap in de strijd tegen digitale misinformatie: het presenteert een nieuw wetsontwerp dat platforms verplicht om proactieve filters in te bouwen voor AI-gegenereerde video’s, afbeeldingen en nieuwsberichten. De wet, ingediend op 18 november 2025, streeft ernaar om nepinhoud niet pas na verspreiding te verwijderen, maar al tijdens de creatie te detecteren. Het meest opvallende aspect? De verantwoordelijkheid ligt bij de platforms zelf – geen politie of justitie hoeft te reageren, maar de technologie moet zelf vóór de schade ingrijpen. Dit is een van de meest ambitieuze aanpakken ter wereld, en biedt een veelbelovend model voor hoe democratieën kunnen reageren op de uitdaging van AI-generatie. De wet staat nog onder discussie, maar haar uitvoering is gepland voor januari 2026.
How an AI-Generated Doctor's Voice Can Mislead You
Nederland, vrijdag, 21 november 2025.
Imagine this: a well-known doctor or influencer warns you about fatigue – but it’s completely fake. Recent research has revealed that over 40 Dutch doctors and public figures are being exploited in deepfake videos promoting supplements from Wellness Nest. These videos use real footage but pair it with AI-generated voices spreading false claims – such as the product helping with menopausal symptoms or fatigue, despite a lack of scientific evidence. What’s unusual is that the network behind these videos is operated by Vietnamese entrepreneurs who are earning millions through an affiliate programme. Most alarming? The videos remained visible on TikTok for months, despite clear signs of deception. This is no coincidence – it represents an emerging threat to our trust in digital information.
Comment une voix générée par IA d’un médecin peut vous tromper
Nederland, vrijdag, 21 november 2025.
Imaginez : un médecin ou un influenceur connu vous avertit contre la fatigue – mais ce n’est tout simplement pas vrai. Une étude récente a révélé que plus de 40 médecins et personnalités publiques néerlandaises sont utilisés de manière abusive dans des vidéos deepfake promotionnelles de compléments alimentaires de Wellness Nest. Ces vidéos utilisent des images réelles, mais associent des voix générées par IA qui diffusent des faussetés – comme l’affirmation que le produit soulagerait les troubles liés à la ménopause ou la fatigue, sans preuve scientifique. Ce qui est inquiétant : derrière ce réseau se cachent des entrepreneurs vietnamiens qui gagnent des millions grâce à un programme d’affiliation. Le plus troublant ? Ces vidéos ont été visibles pendant des mois sur TikTok, malgré des signes évidents de tromperie. Ce n’est pas un simple hasard – il s’agit d’une menace croissante pour notre confiance dans l’information numérique.
Hoe een AI-gegenereerde stem van een arts u kunt misleiden
Nederland, vrijdag, 21 november 2025.
Stel je voor: een bekende arts of influencer waarschuwt je voor vermoeidheid – maar het is helemaal niet echt. Recent onderzoek heeft aan het licht gebracht dat ruim 40 Nederlandse artsen en publieke figuren worden misbruikt in deepfake-video’s die supplementen van Wellness Nest promoten. De video’s gebruiken echte beelden, maar AI-nagebootste stemmen die onwaarheden vertellen – zoals dat het product helpt bij overgangsklachten of vermoeidheid, zonder wetenschappelijk bewijs. Wat ongebruikelijk is: achter het netwerk schuilgaan Vietnamese ondernemers die via een affiliateprogramma miljoenen verdienen. Het meest schokkend? De video’s werden maandenlang zichtbaar op TikTok, ondanks duidelijke signalen van misleiding. Dit is geen toeval – het is een opkomende bedreiging voor ons vertrouwen in digitale informatie.
Why Taylor Swift's voice on social media probably isn't trustworthy right now
Amsterdam, vrijdag, 14 november 2025.
In November 2025, a new wave of online fraud rapidly spread across the world, primarily through AI-generated videos and audio recordings of Taylor Swift. These deepfakes, which realistically mimicked her voice and appearance, were used to promote fake giveaways, counterfeit products, and cryptocurrency investment scams. Most alarming: 39% of Americans have already clicked on such fake content, and 1 in 10 lost money—averaging $525 per victim. Scammers leveraged her public relationship with Travis Kelce as a springboard for ‘limited-edition’ scams. But the danger isn’t limited to financial loss: the technology is so advanced that even experienced users are misled—and sometimes fail to realise they’re viewing AI-generated imagery. The rise of this fraud underscores how quickly digitisation is blurring the line between reality and deception.
Pourquoi la voix de Taylor Swift sur les réseaux sociaux ne peut probablement pas être entièrement fait confiance en ce moment
Amsterdam, vrijdag, 14 november 2025.
En novembre 2025, une nouvelle vague de fraude en ligne s’est répandue rapidement à travers le monde, principalement sous forme de vidéos et d’enregistrements audio générés par l’IA imitant Taylor Swift. Ces deepfakes, qui reproduisaient avec réalisme sa voix et son apparence, ont été utilisés pour promouvoir des faux concours, des produits falsifiés et des investissements en crypto-monnaie. Le plus choquant : 39 % des Américains ont déjà cliqué sur un contenu frauduleux, et 1 sur 10 a perdu de l’argent — en moyenne 525 dollars par victime. Les fraudeurs ont exploité son engagement public avec Travis Kelce comme levier pour lancer des escroqueries « édition limitée ». Mais le danger ne réside pas seulement dans les pertes financières : la technologie est si avancée qu’elle trompe même des utilisateurs expérimentés — parfois sans même qu’ils s’en rendent compte. L’essor de ces fraudes met en évidence à quel point la digitalisation change rapidement la frontière entre le réel et le fictif.
Waarom Taylor Swifts stem op sociale media je nu waarschijnlijk niet kan vertrouwen
Amsterdam, vrijdag, 14 november 2025.
In november 2025 verspreidde een nieuwe golf van online fraude zich snel door de wereld, vooral via AI-gegenereerde video’s en audio-opnames van Taylor Swift. Deze deepfakes, die haar stem en uiterlijk realistisch nabootsten, werden gebruikt om fake giveaways, nepproducten en crypto-investeringen te promoten. Het meest schokkend: 39% van de Amerikanen heeft al op zo’n nepcontent geklikt, en 1 op de 10 raakte geld verloren — gemiddeld $525 per slachtoffer. De scammers gebruikten haar publieke engagement met Travis Kelce als springplank voor ‘limited-edition’ scammer. Maar het gevaar zit niet alleen in het geld: de technologie is zo goed dat zelfs ervaren gebruikers zich laten misleiden — en soms zelfs niet merken dat ze een AI-gegenereerd beeld zien. De opkomst van deze fraude benadrukt hoe snel digitalisering de grens tussen echt en nep verandert.
How AI spread false stories about a US warship and migration pressure — and now helps debunk them
Brussel, donderdag, 13 november 2025.
A recent wave of misleading posts around the presence of a US warship in the Caribbean and the European Commission’s notice that Belgium is among countries with “risk of migratory pressure” illustrates AI’s double role: the ship was indeed present, but narratives about military escalation and an alleged immigration surge were amplified by AI‑generated content and bots. Media outlets and researchers are meanwhile using AI tools to recognise fabricated versions and separate fact from fiction, especially in periods of high information pressure. Most intriguingly: the same techniques that spread misinformation rapidly are also the best tools to detect it. Expect in the full article examples of distorted claims, explanations of detection algorithms used, and what the EC classification for Belgium concretely means — discussed in the light of recent events last Tuesday and the rise of mandatory AI labelling in Europe.
Comment l'IA a fait circuler de fausses histoires sur un navire de guerre américain et la pression migratoire — et aide désormais aussi à les démentir
Brussel, donderdag, 13 november 2025.
Une récente vague de messages trompeurs autour de la présence d’un navire de guerre américain dans les Caraïbes et de la notification de la Commission européenne selon laquelle la Belgique fait partie des pays « à risque de pression migratoire » illustre le double rôle de l’intelligence artificielle : le navire était bien présent, mais les récits sur une escalade militaire et une prétendue vague migratoire ont été amplifiés par du contenu généré par IA et des bots. Les médias et les chercheurs utilisent désormais des outils d’IA pour repérer les versions fabriquées et séparer le fait de la fiction, notamment en période de forte pression informationnelle. Le plus intrigant : les mêmes techniques qui propagent rapidement la désinformation sont aussi les meilleurs outils pour la détecter. L’article complet donne des exemples d’allégations déformées, explique les algorithmes de détection utilisés et précise ce que signifie concrètement la classification de la CE pour la Belgique — discutés à la lumière des événements récents de mardi dernier et de l’avènement d’un étiquetage obligatoire de l’IA en Europe.
Hoe AI nepverhalen over een Amerikaans oorlogsschip en migratiedruk liet rondgaan — en nu ook helpt ontkrachten
Brussel, donderdag, 13 november 2025.
Een recent golf van misleidende berichten rondom de aanwezigheid van een Amerikaans oorlogsschip in de Caraïben én de Europese Commissie‑melding dat België tot de landen met “risico op migratiedruk” behoort, toont de dubbelrol van kunstmatige intelligentie: het schip was wel degelijk aanwezig, maar narratieven over militaire escalatie en een vermeende immigratiegolf werden versterkt door door AI gegenereerde content en bots. Media en onderzoekers zetten ondertussen AI‑tools in om gefabriceerde versies te herkennen en feit van fictie te scheiden, juist in periodes van hoge informatiedruk. Het meest intrigerende: dezelfde technieken die misinformatie snel verspreiden zijn ook het beste gereedschap om die misinformatie te detecteren. Verwacht in het volledige artikel voorbeelden van vervormde claims, uitleg over gebruikte detectiealgoritmes, en wat de EC‑classificatie voor België concreet betekent — besproken in het licht van recente gebeurtenissen vorige dinsdag en de opkomst van verplichte AI‑labeling in Europa.