Hoeveel water en stroom kost een praatje met ChatGPT?
Hilversum, zaterdag, 8 november 2025.
EenVandaag belicht dat het gebruik van grote taalmodellen in Nederland in 2025 niet alleen veel energie verbruikt maar ook aanzienlijke hoeveelheden koel- en opwekkingswater vereist. Onderzoek laat zien dat een sessie van ongeveer 10–50 vragen aan ChatGPT kan neerkomen op zo’n 0,5 liter indirect waterverbruik — een feit dat de publieke discussie over digitale duurzaamheid scherp stelt. Experts leggen uit dat de watervraag voortkomt uit datacenterkoeling, elektriciteitsopwekking en chipproductie, en dat de snelle groei van ICT het landelijke energieverbruik afgelopen tien jaar op peil heeft gehouden ondanks besparingsmaatregelen. Voor instellingen als nieuwsmedia, bibliotheken en voorlichting roept dit vragen op over transparantie van AI-providers, verantwoord gebruik en mediageletterdheid rond milieuclaims. Het verhaal bespreekt technische oorzaken, maatschappelijke kosten en praktische beleidskeuzes: van zoeken naar zuinigere modellen tot communicatie met gebruikers over de ecologische impact van AI.
Introductie: waarom AI en duurzaamheid samen onder de loep horen
De opkomst van grote taalmodellen zoals ChatGPT heeft voor moderne voorlichting en publiekscommunicatie nieuwe mogelijkheden geopend, maar werpt tegelijk kritische vragen op over ecologische impact en transparantie voor maatschappelijke instellingen [1]. EenVandaag belicht dat het gebruik van zulke modellen in Nederland in 2025 niet alleen veel energie vraagt, maar ook koel- en opwekkingswater verbruikt — een factor die de discussie rond digitale duurzaamheid scherp zet [1].
Concreet: hoeveel water en stroom per gesprek?
Onderzoek samengevat in de reportage wijst erop dat een sessie van ongeveer 10–50 vragen aan ChatGPT kan neerkomen op circa 0,5 liter indirect waterverbruik (koeling datacenters, water voor elektriciteitsopwekking en chipproductie genoemd als oorzaken) en dat de introductiefase van ChatGPT gepaard ging met zeer hoog verbruik, al zijn sommige modellen sindsdien compacter en zuiniger geworden [1].
AI-toepassingen in voorlichting en publiekscommunicatie
AI wordt in publieke voorlichting ingezet voor gepersonaliseerde informatievoorziening (aanpassen van taal en inhoud aan lezerprofielen), chatbots voor publieke dienstverlening (24/7 antwoord op veelgestelde vragen) en AI-gestuurde campagnes (targeting en A/B-testen van boodschappen) — toepassingen die de efficiëntie en bereikbaarheid van informatieverdeling kunnen vergroten [GPT][1].
Praktijkvoorbeeld(en) en succescriteria
Voorlichtingsteams kunnen AI gebruiken om grote publieksgroepen te segmenteren en teksten automatisch te vereenvoudigen of te lokaliseren; dergelijke praktijken verbeteren bereik en begrip mits de gebruikte modellen gecontroleerd worden op juistheid en bias [GPT][1]. EenVandaag noemt dat instellingen — zoals nieuwsmedia, bibliotheken en voorlichtingsorganisaties — hierdoor zicht moeten hebben op zowel de voordelen als de milieu- en betrouwbaarheidskosten van AI-gebruik [1].
Hoe AI helpt om complexe informatie toegankelijk te maken
Taalmodellen kunnen ingewikkelde vakteksten herschrijven naar begrijpelijke taal, samenvatten voor drukke doelgroepen en alternatieve representaties (bijvoorbeeld korte bullets, infographics of vragen-en-antwoorden) genereren die de informatieoverdracht verbeteren — een capaciteitswinst die vooral bruikbaar is voor kwetsbare of minder-geletterde doelgroepen [GPT][1].
Meten van effectiviteit en doorlopende optimalisatie
AI-tools bieden mogelijkheden voor real-time monitoring van interacties, het meten van leesbaarheid en het analyseren van welke formuleringen het meeste begrip of engagement opleveren; deze meetbare feedback kan campagnes sneller verbeteren, mits analyse en interpretatie transparant gebeuren en rekening houden met privacyregels [GPT][1].
Privacy- en vertrouwensvragen bij publieke inzet
Publieke instellingen die AI inzetten moeten expliciet aandacht besteden aan gegevensminimalisatie, opslagbeleid en de vraag of persoonlijke data überhaupt naar externe AI‑providers gaat — mede omdat gebruik van commerciële modellen implicaties heeft voor privacy en toezicht, iets waar media en bibliotheken volgens de reportage vragen over moeten stellen richting providers [1].
Inclusiviteit en betrouwbaarheid: risico’s van automatische personalisatie
Automatische personalisatie kan groepen beter bereiken, maar brengt het risico van uitsluiting of versterking van bestaande ongelijkheden wanneer trainingdata niet representatief is of wanneer automatische aanpassingen fouten bevatten; de reportage benadrukt dat instellingen kritisch moeten blijven over validatie en menselijke controle bij publieke communicatie [1][GPT].
Ecologische afwegingen voor instellingen
De reportage roept organisaties op beleid te ontwikkelen dat rekening houdt met de ecologische kosten van AI — van kiezen voor zuinigere modellen en localiseren van rekentaken tot het vragen van transparantie van providers over energie- en watergebruik — omdat lokale besparingsmaatregelen op ICT-niveau anders teniet kunnen worden gedaan door het extra verbruik van grootschalige AI-diensten [1].
Communicatie met het publiek en mediageletterdheid
Om publiek vertrouwen te behouden moeten voorlichtingsinstanties niet alleen AI inzetten, maar ook open communiceren over wanneer en hoe AI is gebruikt, welke onzekerheden er zijn en welke milieu-impact dat heeft; de reportage stelt dat mediageletterdheid rond milieuclaims en AI-gebruik belangrijk is voor geïnformeerde keuzes door burgers [1].
Praktische stappen voor organisaties
Concrete beleidsstappen die uit de reportage naar voren komen zijn: vragen aan providers naar energie- en waterdata, prioriteren van efficiëntere of kleinere modellen voor routinetaken, inzetten van lokale (on-premises) oplossingen waar passend en publiek informeren over trade-offs tussen dienstverlening en duurzaamheid [1].