AIJB

deepfakes

Comment une vidéo générée par IA a pu mettre une démocratie en difficulté

Comment une vidéo générée par IA a pu mettre une démocratie en difficulté

2025-11-18 nepnieuws

Amsterdam, dinsdag, 18 november 2025.
Imaginez : une vidéo d’un dirigeant politique qui échange un champ de bataille contre une déclaration jamais prononcée. En 2025, un tel scénario n’est plus de la science-fiction, mais un risque réel. Les deepfakes – des images falsifiées générées par l’IA – sont aujourd’hui utilisés pour miner la confiance publique, influencer les élections et perturber les négociations diplomatiques. Ce qui est le plus inquiétant ? La qualité de ces contenus frauduleux est si élevée que même les experts ont du mal à distinguer le vrai du faux. Lors du départ anticipé de Hans Wijers en tant que formateur, un message privé a été divulgué – mais et si ce message lui-même était un deepfake ? C’est précisément ce danger : une réalité trompeuse qui semble irréfutable à première vue. L’époque des frontières claires entre vérité et fiction est révolue – et cela change tout ce que nous pensons sur la vérité et la démocratie.

Hoe een AI-gegenereerde video een democratie in dubio kon brengen

Hoe een AI-gegenereerde video een democratie in dubio kon brengen

2025-11-18 nepnieuws

Amsterdam, dinsdag, 18 november 2025.
Stel je voor: een video van een politiek leider die een oorlogsveld inruilt voor een verklaring die nooit werd gegeven. In 2025 is zo’n scenario geen sciencefiction meer, maar een reëel risico. Deepfakes – door AI gegenereerde valse beelden – worden nu gebruikt om publieke vertrouwensrelaties te ondermijnen, verkiezingen te beïnvloeden en diplomatieke onderhandelingen te verstoren. Het meest verontrustende? De kwaliteit van deze valse inhoud is zo hoog dat zelfs experts moeite hebben de echte van de nep te onderscheiden. Bij het vroegere vertrek van Hans Wijers als formateur, werd een privébericht gelekt – maar wat als dat bericht zelf een deepfake was? Dat is precies het gevaar: een misleidende realiteit die op het eerste gezicht onmiskenbaar echt lijkt. De tijd van duidelijke grenzen tussen feit en fictie is voorbij – en dat verandert alles wat we over waarheid en democratie denken.

How an AI-Generated Taylor Swift Put Digital Security Under Pressure

How an AI-Generated Taylor Swift Put Digital Security Under Pressure

2025-11-17 nepnieuws

Amsterdam, maandag, 17 november 2025.
In November 2025, cybercriminals spread convincing AI-generated deepfakes of Taylor Swift across social media, with a single video clip falsely advertising an ‘AI Music Festival’ deceiving over 12,000 people. Most alarming: the scam campaign was executed using a free AI tool, Microsoft Designer, which bypassed existing security mechanisms. The fact that even technology from major corporations like Microsoft was misused underscores how blurred the line between creativity and abuse has become. The campaign triggered a panicked response from platforms, with X blocking Taylor Swift’s name in search functions—evidence of technological limitations in swiftly countering deepfakes. This is not merely an attack on a celebrity, but a warning to everyone who trusts online information.

Comment une deepfake d'IA de Taylor Swift a mis la sécurité numérique sous pression

Comment une deepfake d'IA de Taylor Swift a mis la sécurité numérique sous pression

2025-11-17 nepnieuws

Amsterdam, maandag, 17 november 2025.
En novembre 2025, des cybercriminels ont diffusé des deepfakes convaincants de Taylor Swift sur les réseaux sociaux, un seul clip vidéo, prétendant annoncer un « festival musical d’IA », ayant trompé plus de 12 000 personnes. Ce qui est le plus choquant : cette campagne de fraude a été menée à l’aide d’un outil d’IA gratuit, Microsoft Designer, dont les mécanismes de sécurité ont été contournés. Le fait que même des technologies développées par de grands groupes comme Microsoft aient été détournées montre que la frontière entre création et abus devient de plus en plus floue. Cette opération a provoqué une réaction paniquée des plateformes, X bloquant lui-même le nom de Taylor Swift dans les fonctions de recherche — un signe de l’impuissance des technologies à réagir rapidement face à du contenu profondément falsifié. Il s’agit là non seulement d’une attaque contre une célébrité, mais aussi d’un avertissement pour chacun qui fait confiance à l’information en ligne.

Hoe een AI-gegenereerde Taylor Swift de digitale veiligheid onder druk zette

Hoe een AI-gegenereerde Taylor Swift de digitale veiligheid onder druk zette

2025-11-17 nepnieuws

Amsterdam, maandag, 17 november 2025.
In november 2025 verspreidden cybercriminelen overtuigende AI-gegenereerde deepfakes van Taylor Swift via sociale media, waarbij een enkel video-clip, die deed alsof ze een ‘AI-muziekfestival’ aanbood, meer dan 12.000 mensen oplichtte. Het meest schokkend: de fraudecampagne werd uitgevoerd met behulp van een gratis AI-tool, Microsoft Designer, die veiligheidsmechanismen werd omzeild. Het feit dat zelfs technologie van grote bedrijven als Microsoft werd misbruikt, toont aan dat de grens tussen creatie en misbruik steeds vager wordt. De campagne leidde tot een paniekerige reactie van platforms, waarbij X zelf Taylor Swifts naam blokkeerde in zoekfuncties — een teken van de onmacht van technologieën om snel te reageren op diepe valse inhoud. Dit is niet alleen een aanval op een beroemdheid, maar een waarschuwing voor iedereen die online informatie vertrouwt.

Why Taylor Swift's voice on social media probably isn't trustworthy right now

Why Taylor Swift's voice on social media probably isn't trustworthy right now

2025-11-14 nepnieuws

Amsterdam, vrijdag, 14 november 2025.
In November 2025, a new wave of online fraud rapidly spread across the world, primarily through AI-generated videos and audio recordings of Taylor Swift. These deepfakes, which realistically mimicked her voice and appearance, were used to promote fake giveaways, counterfeit products, and cryptocurrency investment scams. Most alarming: 39% of Americans have already clicked on such fake content, and 1 in 10 lost money—averaging $525 per victim. Scammers leveraged her public relationship with Travis Kelce as a springboard for ‘limited-edition’ scams. But the danger isn’t limited to financial loss: the technology is so advanced that even experienced users are misled—and sometimes fail to realise they’re viewing AI-generated imagery. The rise of this fraud underscores how quickly digitisation is blurring the line between reality and deception.

Pourquoi la voix de Taylor Swift sur les réseaux sociaux ne peut probablement pas être entièrement fait confiance en ce moment

Pourquoi la voix de Taylor Swift sur les réseaux sociaux ne peut probablement pas être entièrement fait confiance en ce moment

2025-11-14 nepnieuws

Amsterdam, vrijdag, 14 november 2025.
En novembre 2025, une nouvelle vague de fraude en ligne s’est répandue rapidement à travers le monde, principalement sous forme de vidéos et d’enregistrements audio générés par l’IA imitant Taylor Swift. Ces deepfakes, qui reproduisaient avec réalisme sa voix et son apparence, ont été utilisés pour promouvoir des faux concours, des produits falsifiés et des investissements en crypto-monnaie. Le plus choquant : 39 % des Américains ont déjà cliqué sur un contenu frauduleux, et 1 sur 10 a perdu de l’argent — en moyenne 525 dollars par victime. Les fraudeurs ont exploité son engagement public avec Travis Kelce comme levier pour lancer des escroqueries « édition limitée ». Mais le danger ne réside pas seulement dans les pertes financières : la technologie est si avancée qu’elle trompe même des utilisateurs expérimentés — parfois sans même qu’ils s’en rendent compte. L’essor de ces fraudes met en évidence à quel point la digitalisation change rapidement la frontière entre le réel et le fictif.

Waarom Taylor Swifts stem op sociale media je nu waarschijnlijk niet kan vertrouwen

Waarom Taylor Swifts stem op sociale media je nu waarschijnlijk niet kan vertrouwen

2025-11-14 nepnieuws

Amsterdam, vrijdag, 14 november 2025.
In november 2025 verspreidde een nieuwe golf van online fraude zich snel door de wereld, vooral via AI-gegenereerde video’s en audio-opnames van Taylor Swift. Deze deepfakes, die haar stem en uiterlijk realistisch nabootsten, werden gebruikt om fake giveaways, nepproducten en crypto-investeringen te promoten. Het meest schokkend: 39% van de Amerikanen heeft al op zo’n nepcontent geklikt, en 1 op de 10 raakte geld verloren — gemiddeld $525 per slachtoffer. De scammers gebruikten haar publieke engagement met Travis Kelce als springplank voor ‘limited-edition’ scammer. Maar het gevaar zit niet alleen in het geld: de technologie is zo goed dat zelfs ervaren gebruikers zich laten misleiden — en soms zelfs niet merken dat ze een AI-gegenereerd beeld zien. De opkomst van deze fraude benadrukt hoe snel digitalisering de grens tussen echt en nep verandert.

How the EU will try to cleanse the web of fake videos from 2026

How the EU will try to cleanse the web of fake videos from 2026

2025-11-13 nepnieuws

Brussel, donderdag, 13 november 2025.
Imagine: a video of a well-known politician saying something they never said – and it is seen millions of times. Since 2023, AI-generated fake news, also called deepfakes, has increased by 300%. The European Union is responding with new legislation that, from 1 January 2026, will require all AI-generated media to be labelled – from political campaigns to ordinary social media posts. This will enable users to distinguish genuine from fake. The legislation, based on the AI Act corpus, is a direct response to growing uncertainty about truth and fiction. In particular, dissemination via algorithms on platforms such as TikTok and X (formerly Twitter) amplifies the impact of disinformation. Mandatory labelling is not merely a technical step but a crucial measure for preserving democratic transparency and trust in the digital space.

Comment l'UE tente d'assainir le web des vidéos truquées à partir de 2026

Comment l'UE tente d'assainir le web des vidéos truquées à partir de 2026

2025-11-13 nepnieuws

Brussel, donderdag, 13 november 2025.
Imaginez : une vidéo d’un homme politique connu disant quelque chose qu’il n’a jamais dit — et visionnée des millions de fois. Depuis 2023, les générations d’IA produisant de fausses informations, appelées deepfakes, ont augmenté de 300 %. L’Union européenne réagit par une nouvelle législation qui, à partir du 1er janvier 2026, oblige à étiqueter tous les médias générés par l’IA — des campagnes politiques aux simples publications sur les réseaux sociaux. Cela permettra aux utilisateurs de distinguer le réel du faux. La législation, fondée sur le corpus juridique du AI Act, est une réponse directe à l’incertitude croissante entre vérité et fiction. En particulier, la diffusion via des algorithmes sur des plateformes comme TikTok et X (anciennement Twitter) renforce l’impact de la désinformation. L’étiquetage obligatoire n’est pas seulement une étape technique, mais une mesure cruciale pour préserver la transparence démocratique et la confiance dans l’espace numérique.