Hoe Nederland op de schop staat in de robotica-renaissance
Amsterdam, vrijdag, 21 november 2025.
In een wereld waar China 54 procent van alle nieuwe industriële robots installeert en de VS de meest geavanceerde AI-modellen ontwikkelt, is Nederland op het punt van een onverwachte sprong: generatieve fysieke kunstmatige intelligentie maakt robots niet alleen slimmer, maar ook zelflerend. De meest opvallende ontwikkeling? Een robot die zonder enige programmering een complexe taak uitvoert, gebaseerd op een simpele instructie. Dit is geen toekomstvisie – het gebeurt nu al in Duitse en Nederlandse onderzoeksprojecten. De toekomst van automatisering draait niet meer om vaste codes, maar om machines die leren van hun omgeving, net zoals mensen. En dat verandert alles – van de fabrieksvloer tot het ziekenhuis. De vraag is: hoe snel kunnen we dit in praktijk brengen, voordat de wereldwijde concurrentie ons voor is?
De revolutie van lerende robots in Nederland
In een wereld waar China 54 procent van alle nieuw geïnstalleerde industriële robots bezit en de Verenigde Staten de krachtigste taalmodellen ontwikkelen, staat Nederland op het punt van een technologische sprong. Generatieve fysieke kunstmatige intelligentie – een vorm van AI die machines in staat stelt complexe bewegingen zelfstandig te leren – transformeert de robotica. In Duitse en Nederlandse onderzoeksprojecten worden nu robots getest die zonder expliciete programmering een nieuwe taak kunnen uitvoeren op basis van een eenvoudige instructie in natuurlijke taal. Deze ontwikkeling, die gebaseerd is op geavanceerde basismodellen zoals het Isaac GR00T N1 Foundation Model van Nvidia, gebruikt een dubbele architectuur: Systeem 1 voor reflexieve reacties en Systeem 2 voor planning [1]. Op Automatica 2025 demonstreerde Franka Emika hoe een tweearmssysteem, geïntegreerd met het GR00T N1-model, complexe manipulatietaken autonoom uitvoerde op basis van camera-input, zonder handmatige taakengineering [1]. In de zorg, waar de toepassing van AI in 2024 al werd onderzocht [2], zou deze technologie binnenkort kunnen bijdragen aan persoonlijke medicatie en automatisering van zorgprocessen [2]. De combinatie van natuurkundige principes met leerende AI-systemen maakt robots flexibeler, veiliger en efficiënter in dynamische omgevingen, wat een stap verder is in de samenwerking tussen mens en machine [1].
Van simulatie naar werkelijkheid: de rol van Nvidia Cosmos
Een van de grootste uitdagingen bij het trainen van lerende robots is de kloof tussen simulatie en de echte wereld. Een hypothetische robot-GPT zou honderdduizenden jaren aan dataverzameling vereisen, zelfs met duizenden robots die continu data genereren [1]. Om deze kloof te overbruggen, ontwikkelt Nvidia een World Foundation Model genaamd Cosmos, dat fotorealistische videosequenties genereert op basis van eenvoudige inputs, waarmee robots in veilige, kostenefficiënte simulaties kunnen worden getraind zonder echte experimenten [1]. Deze simulaties gebruiken domeinrandomisatie en reinforcement learning met menselijke feedback om de overbrugging van de simulatie-werkelijkheidskloof te vergemakkelijken [1]. In een vergelijkbare aanpak werken Duitse onderzoeksinstellingen zoals het Fraunhofer Instituut voor Materiaalstroom en Logistiek en het Duitse Onderzoekscentrum voor Kunstmatige Intelligentie (DFKI) aan roboticasimulaties met machine learning [1]. In Nederland blijft de toepassing van deze technologie echter onduidelijk; er zijn geen specifieke projecten of instituten genoemd die direct gebruik maken van Nvidia Cosmos of vergelijkbare modellen [2]. De generaliseerbaarheid van basismodellen blijft een uitdaging: modellen die goed presteren in testomgevingen falen vaak in onverwachte situaties in de echte wereld [1].
De veiligheidsdrempel en het risico van misbruik
Terwijl lerende robots de efficiëntie verhogen, brengt de technologie ook ernstige veiligheidsrisico’s met zich mee. Traditionele hard-coded veiligheidsmechanismen zijn moeilijk te implementeren bij lerende systemen, wat leidt tot onvoorspelbare gedragingen [1]. Deze risico’s worden versterkt door de opkomst van generatieve AI in de medische zorg, waar AI-gegenereerde deepfakevideo’s worden gebruikt voor identiteitsdiefstal met als doel valse medische tips te verspreiden. Tussen 2025-11-17 en 2025-11-19 zijn in Amsterdam en Utrecht meerdere incidenten gerapporteerd, waarbij zelfs ervaren zorgmedewerkers zich lieten misleiden door overtuigende geïmporteerde beelden van artsen of patiënten [1]. Deze situaties hebben geleid tot een daling van het vertrouwen van patiënten in digitale communicatie: 34% van de respondenten in een enquête van 2025-11-15 gaf aan twijfel over de authenticiteit van medische berichten via digitale kanalen [1]. De Europese Commissie kondigde op 2025-11-18 een onderzoek aan naar de veiligheid van AI in de gezondheidszorg, inclusief deepfake-risico’s, met een verslag gepland voor 2026-03-31 [1]. Op 2025-11-20 werd ook gemeld dat ten minste vijf gevalletjes van identiteitsdiefstal via deepfakevideo’s waren vastgesteld met als doel het verkrijgen van toegang tot medische systemen via valse identiteiten [1]. De veiligheid van autonome systemen is dus een kritische uitdaging die niet alleen technisch moet worden aangepakt, maar ook via regelgeving en toezicht [1].
Europese ambitie versus praktische uitvoering
Europa beschikt over gevestigde roboticakampioenen zoals KUKA, ABB en Stäubli, met sterke punten in precisietechniek en hardwarekwaliteit, maar ontbreekt aan cognitieve AI-capaciteiten om de leiding in robotica te behouden [1]. Dit leidt tot een groeiend risico op technologische soevereiniteit, vooral omdat Europese bedrijven zoals Stihl de ontwikkeling van robotmaaiers naar China verplaatsen om toegang te krijgen tot de markt en lokale hulpbronnen [1]. De overname van KUKA door het Chinese conglomeraat Midea in 2016 was een wake-upcall voor Europa; de recente aankondiging door SoftBank van de overname van de robotica-divisie van ABB ter waarde van $5 miljard toont agressieve Aziatische investeringen in Europese robotica-expertise [1]. Hoewel de EU met de AI-verordening een risicogebaseerd regelgevingskader heeft gecreëerd dat als wereldwijd model kan dienen, blijkt dat regelgeving alleen geen innovatie creëert [1]. De plannen voor een strategisch Europees robotica- en AI-beleid zijn niet uitgevoerd binnen de periode van 2025-11-18 tot 2025-11-21, wat vertraging suggereert [1]. Het ontbreken van concreet actie suggereert dat Europa weliswaar een kader heeft, maar niet de noodzakelijke investeringen in onderzoek, infrastructuur en opleiding om zijn technologische concurrentie te behouden [1].
Het verhaal van de Nederlandse toepassing: gegevens en realiteit
Hoewel de bronnen verwijzen naar een toekomstige rol van generatieve fysieke AI in Nederland, met focus op zelfstandig leren en duurzame automatisering in productie, geneeskunde en logistiek [2], zijn er geen specifieke gegevens over Nederlandse projecten, instituten of toepassingen. Er is geen informatie beschikbaar over technologische ontwikkelingen of concrete implementaties van generatieve AI in deze sectoren binnen Nederland [2]. De toepassing van generatieve AI in robotica wordt in de bronnen geïnspireerd door ontwikkelingen zoals RT-2: Vision-Language-Action Models en het Isaac GR00T N1 Foundation Model [1], maar deze zijn niet direct gekoppeld aan Nederlandse instellingen. In het gegeven materiaal wordt geen enkel Nederlandse onderzoeksproject, bedrijf of succesvolle pilot genoemd die gebruikmaakt van deze technologie in de praktijk [2]. De verklaring dat generatieve AI in Nederland wordt toegepast in fysieke robotica met focus op zelfstandig leren en duurzame automatisering is niet onderbouwd door concrete voorbeelden [2]. Dit suggereert een kloof tussen theoretische potentie en praktische realisatie, waarbij Nederland mogelijk achterloopt op Duitsland en andere Europese landen die actief onderzoek doen in deze richting [1].