AI-toepassingen zoals chatbots, zoekmachines en vertaaltools worden steeds vaker gebruikt door bedrijven en consumenten. Om zulke systemen mogelijk te maken, draaien duizenden krachtige chips die enorme hoeveelheden rekenkracht leveren. Die zijn nodig om AI-modellen eerst te trainen, en daarna telkens opnieuw in te zetten. Vooral dat laatste, het gebruik van een model, ook wel ‘inference’ genoemd, gebeurt dagelijks op gigantische schaal. Volgens De Vries-Gao, werkzaam bij Instituut voor Milieuvraagstukken (IVM), wordt het totale energieverbruik van AI daardoor fors onderschat.

In zijn onderzoek, dat verscheen in het wetenschappelijke tijdschrift Joule, laat De Vries-Gao zien dat er een groot gebrek is aan transparantie. Grote technologiebedrijven zoals Google, Microsoft en OpenAI geven nauwelijks inzicht in het energieverbruik van hun AI-systemen. Google publiceerde in 2022 nog dat AI verantwoordelijk was voor 10 tot 15 procent van het totale energieverbruik, maar sindsdien zijn er geen nieuwe cijfers gedeeld. De Europese AI Act verplicht bedrijven om energiegebruik te rapporteren, maar alleen voor de trainingsfase van AI-modellen. Het daadwerkelijke gebruik, dat juist het grootste deel van het verbruik veroorzaakt, valt buiten die verplichting.

Omdat harde cijfers ontbreken, analyseerde De Vries-Gao de hoeveelheid stroom die deze AI-acceleratormodules verbruiken. Grote chipfabrikanten zoals NVIDIA en AMD leverden in 2023 en 2024 meer dan vijf miljoen van deze grafische kaarten waar AI op draait. Op basis van de wereldwijde productiecapaciteit van deze chips en kennis van de gebruikte modules, schat hij het realistische stroomverbruik van alleen de modules op 3 tot 5,2 gigawatt. Voor volledige AI systemen die deze modules gebruiken, samen met de koeling die hiervoor nodig is in datacentra, kan het totale energieverbruik oplopen tot wel 9,4 gigawatt. Ter vergelijking: dat is het volledige stroomverbruik van Nederland. Met de verwachte verdubbeling van de productiecapaciteit in 2025 kan dat verbruik zelfs stijgen tot 23 gigawatt, wat AI zou maken tot een van de grootste energieverbruikers binnen de digitale infrastructuur wereldwijd.

Zonder betere regels of verplichte rapportage blijft het vrijwel onmogelijk om goed zicht te krijgen op het werkelijke energieverbruik van AI. Volgens De Vries-Gao botst de snelle groei van deze technologie met andere maatschappelijke ambities, zoals het behalen van klimaatdoelen en het terugdringen van het totale energieverbruik. Hij pleit daarom voor meer openheid, zodat overheden effectief beleid kunnen maken dat de ontwikkeling van AI in lijn brengt met duurzaamheid. Gebeurt dat niet, dan dreigt AI zich onzichtbaar te ontwikkelen tot een ongecontroleerde bron van energieverbruik en CO₂-uitstoot.

Bron: VU Amsterdam

Gerelateerd nieuws

Hoe AI de structuur van organisaties hervormt

Kunstmatige intelligentie (AI) is al lang niet meer iets voor enkel de IT-afdeling binnen een organisatie: meer dan de helft van werkend Nederland zet AI in om hun eigen productiviteit te verhogen, zo blijkt uit een wereldwijd onderzoek van het Amerikaanse softwarebedrijf Freshworks.

Waarom je als General Counsel nú werk moet maken van een Fundamental Rights Impact Assessment (FRIA)

Welke ethische afwegingen maak je als General Counsel bij de inzet van AI? De FRIA (Fundamental Rights Impact Assessment) helpt om risico’s voor grondrechten vroegtijdig te signaleren. Lees waarom dit essentieel is en hoe het bijdraagt aan compliance, transparantie en vertrouwen.

Van belofte naar beleid: hoe de EU desinformatie structureel wil aanpakken

Hieronder volgt het eerste deel van een tweedelige blogreeks, geschreven door Tijn Iserief, Consultant Privacy & Data Protection bij Lex Digitalis.

ChatGPT bij de bestuursrechter: hulpmiddel of hindernis?

AI-toepassingen zoals ChatGPT zijn de afgelopen jaren doorontwikkeld van een innovatie naar een gangbaar hulpmiddel. De technologie biedt ontelbare mogelijkheden. Een logisch gevolg daarvan is dat de technologie ook wordt toegepast door betrokkenen bij een juridische procedure. De Afdeling Bestuursrechtspraak van de Raad van State (hierna: Afdeling) heeft een uitspraak gedaan over het gebruik van ChatGPT als hulpmiddel. Anne de Jong (advocaat bij Poelmann van den Broek) legt in deze blog uit dat vertrouwen op ChatGPT voor een deskundigenoordeel (vooralsnog) niet mogelijk is.