Hoe AI het digitale slagveld verandert – en waarom snelheid nu alles bepaalt
amsterdam, vrijdag, 14 november 2025.
Stel je voor: een cyberaanval die zichzelf herstelt, aanpast en voorspelt hoe je je verdedigt – en dat allemaal in milliseconden. Sinds afgelopen week zijn zulke autonome AI-gebaseerde aanvallen niet langer theorie, maar realiteit. In Nederland en de VS werden al meer dan 1,2 miljoen gegevens onderschept door een AI-geïnspireerde aanval op een nationaal register. Wat maakt dit zo gevaarlijk? De tegenstander werkt niet meer op menselijke snelheid, maar op die van de machine. In reactie daarmee moeten verdedigingsstrategieën zichzelf ook automatiseren – zonder het menselijke oordeel uit handen te geven. De toekomst van digitale veiligheid ligt niet in meer mensen, maar in slimme, samenwerkende AI-systemen die snelheid, intelligentie en controle combineren. Dit is geen science fiction: het is het nieuwe normaal.
AI als wapen en wachter: de dubbele rol van kunstmatige intelligentie in de cyberveiligheid
Kunstmatige intelligentie verandert de cyberveiligheid van binnen en van buiten. Aan de ene kant gebruiken overheden en organisaties AI om dreigingen proactief te detecteren en af te weren; aan de andere kant wordt AI zelf tot een wapen ingezet door staatsondersteunde en kriminële actoren. In Nederland werd op [alert! ‘datum niet gespecificeerd in bron, maar vermeld als recent’] een AI-gebaseerde aanval geconstateerd op het nationale digitale identiteitsregister, waarbij 1,2 miljoen gebruikersgegevens werden onderschept [1]. Deze aanval is een concrete manifestatie van een trend die al sinds 2022 is opgelopen: AI-gebaseerde cyberaanvallen zijn sindsdien met 300% toegenomen [2]. In de VS en de EU worden deze aanvallen vooral gericht op overheidsdiensten, met een 68% stijging in geautomatiseerde aanvallen tussen 2024 en 2025 [1][2]. Bij dit type aanval worden niet alleen data onderschept, maar ook technieken zoals synthetische phishingmails met deepfake-voices en hyperpersoonlijke content ingezet, die in 2025 68% van alle gerichte inbraakpogingen uitmaken [2]. De impact van deze verandering is diep: het is geen kwestie meer van reactief handelen, maar van een continu, zelflerend slagveld waarin de tegenstander altijd één stap voor is. Het Amerikaanse leger en de VS Cyber Command hebben in een geheim briefing op [alert! ‘datum niet exact in bron, maar vermeld als afgelopen week’] bevestigd dat Russische en Chinese staatsondersteunde groepen AI-generatieve desinformatiecampagnes hebben ingezet die gericht zijn op de Europese verkiezingen van 2026 [2]. In Nederland wordt deze dreiging serieus genomen: de Nationale Cyberveiligheidsraad meldde op [alert! ‘datum niet exact in bron, maar vermeld als afgelopen week’] dat 47% van alle geïdentificeerde aanvallen tussen 15 oktober en 10 november 2025 werden uitgevoerd met AI-gestuurde tools voor proactieve dreigingsdetectie [1]. Deze cijfers tonen aan dat AI niet langer een ondersteunend middel is, maar het centrale element van de digitale confrontatie.
Van reactie naar automatisering: de noodzaak van autonome defensie
De snelheid van modernere cyberaanvallen is de belangrijkste uitdaging. Waar traditionele beveiligingssystemen op menselijke reactie zijn gebaseerd, werken autonome AI-gebaseerde aanvallen in realtime en passen zich aan om verdedigingsmaatregelen te ontwijken [3]. Sam Kinch, voormalig cyberofficier bij het Amerikaanse leger en nu Federal Field CTO bij Tanium, benadrukte dat ‘wanneer tegenstanders autonome agenten inzetten die zich in realtime kunnen aanpassen, zijn reacties op menselijke snelheid zinloos’ [3]. Dit vereist een fundamenteel andere aanpak: defensieve operaties moeten autonome responsecapaciteiten hebben, terwijl menselijk toezicht strategisch blijft [3]. De Amerikaanse overheid ziet dit en zet op dit moment op een nieuwe basis: IT-operaties moeten worden uitgevoerd binnen een echte wapensysteembenadering, met waarborgen voor fundamentele cyberhygiëne, autonome patching en continue naleving [3]. In dit kader is Tanium sinds 13 november 2025 erkend als CVE Numbering Authority (CNA), wat betekent dat het zelf CVE-identificatoren kan uitgeven voor gevonden kwetsbaarheden in zijn producten [4][5]. Dit is een stap richting grotere transparantie, maar ook een noodzakelijke maatregel in een wereld waar snelheid kritiek is. De volgende versie van het Joint Cyber Defense Collaborative (JCDC)-playbook moet de uitwisseling tussen DHS, Cyber Command en FBI stroomlijnen, met behoud van verificatiestandaarden, om gelijke tred te houden met AI-gebaseerde dreigingen [3]. Voor Nederland is hier een duidelijke parallel: samenwerking tussen NCSC, Defensie Cyber Commando en Team High Tech Crime moet verder worden versneld, omdat dreigingen die zich autonoom ontwikkelen geen ruimte laten voor bureaucratische traagheid [3]. De toekomst van verdediging ligt niet in meer mensen, maar in geïntegreerde, samenwerkende AI-systemen – een ‘vendor-in-depth’-benadering, waarbij meerdere geïntegreerde AI-agents elkaar versterken en fouten van één technologie worden gecompenseerd door een andere [3].
AI en nepnieuws: een vijfde kolom in de digitale democratie
De verspreiding van nepnieuws is een van de meest directe gevaren van AI voor democratie en mediageletterdheid. AI-gebaseerde desinformatiecampagnes, zoals die door Russische en Chinese staatsondersteunde groepen worden ingezet, zijn geen isolatie meer, maar een gecentraliseerd, schaalbaar en doeltreffend instrument voor het manipuleren van publieke mening [2]. Deze campagnes worden niet alleen gefinancierd, maar ook gecreëerd met AI: voice cloning, deepfake-video’s en gepersonaliseerde berichten worden in grote hoeveelheden geproduceerd en verspreid via sociale media, e-mail en apparaten [2]. In 2025 is de hoeveelheid AI-gebaseerde desinformatie sterk toegenomen, vooral in de periode voor de Europese verkiezingen van 2026 [2]. De European Commission heeft daarop in reactie op 10 november 2025 de AI Cybersecurity Act (AICA) aangekondigd, een wet die real-time AI-threat detection-systemen in alle publieke digitale diensten verplicht tot 30 juni 2026 [2]. Deze wet is een directe reactie op de toenemende ernst van AI-gebaseerde aanvallen op de democratische instellingen. De impact is niet alleen juridisch, maar ook psychologisch: mensen verliezen vertrouwen in wat ze zien en horen, en vertrouwen minder op instituties als de media en overheid. Volgens Dr. Elise van Dijk, Cybersecurity Director bij het NCSC-NL, is ‘AI niet langer alleen een tool voor verdediging – het is de wapenkeuze voor staat- en niet-staatactoren’ [2]. Ze waarschuwt dat ‘AI-gebaseerde aanvallen al de digitale slagvelden vormen – democratieën moeten reageren met proportionele, automatische verdedigingen of het kunnen op systeemvallen’ [2]. De verspreiding van nepnieuws via AI is dus niet langer een technisch probleem, maar een civiel en ethisch dilemma dat de basis van een functionerende democratie ondermijnt.
Hoe je nepnieuws herkent: praktische tips voor de digitale burger
Als burger op het digitale slagveld is het belangrijk om bewust te zijn van het risico van AI-gebaseerd nepnieuws. De eerste stap is het vragen van vragen: wie is de bron? Wat is de intentie achter de tekst of video? De SANS Institute, een wereldleider in cybersecuritytraining, biedt in 2025 cursussen aan die specifiek gericht zijn op het beheersen van risico’s van generatieve AI en grote taalmodellen [6]. De cursus SEC545: GenAI and LLM Application Security leert professionals hoe ze beveiligingsgevoelige AI-applicaties kunnen analyseren en risico’s kunnen identificeren [6]. Voor het brede publiek is de basis van mediageletterdheid de belangrijkste verdediging. Tips om nepnieuws te herkennen zijn: check de oorsprong van de informatie via geavanceerde zoekfuncties zoals Google Lens of TinEye; let op spraak- en beeldkwaliteit – die zijn vaak te perfect voor menselijke realiteit; controleer of de tekst of video al eerder is verschenen via bronnen zoals Archive.org; en gebruik het beveiligingsplatform van de eigen organisatie of overheid, zoals de veilige nieuwsbrieven van de Nederlandse overheid of de waarschuwingen van NCSC-NL. De Europese Commissie waarschuwde op 5 november 2025 dat 34% van de nationale cyberdefensies in de EU nog geen AI-gebaseerde dreigingsmodellen implementeren, wat betekent dat veel landen nog kwetsbaar zijn voor AI-ontwikkelde inmenging [1]. Dit benadrukt de noodzaak van een collectieve verantwoordelijkheid: iedereen die informatie verspreidt, draagt een deel van de verantwoordelijkheid. De wereld van AI is niet langer afgeschermd: het is een deel van ons dagelijks leven, en het is belangrijk om er bewust mee om te gaan.