Explosieve energiehonger van kunstmatige intelligentie

Deel dit artikel

,

elektra masten

Kunstmatige intelligentie is niet alleen bezig de manier waarop we werken, leren en communiceren te veranderen maar het grijpt ook steeds dieper in op een plek waar de meeste mensen zelden bij stilstaan: het elektriciteitsnet. Nieuwe inzichten van de Vrije Universiteit Amsterdam brengen een opvallend, en voor sommigen wellicht schokkend beeld naar voren.

In 2024 bleek AI goed voor maar liefst 11 tot 20 procent van het wereldwijde stroomverbruik van datacenters. En die cijfers zijn nog maar het begin, zo waarschuwen experts.

De verborgen stroomslurper in je achterzak

Elke keer dat jij ChatGPT om hulp vraagt, een AI-gegenereerde afbeelding maakt of een algoritme laat bepalen wat je volgende TikTok-video wordt, draait er ergens op de wereld een zware AI-chip op volle toeren. En dat kost energie — véél energie.

Volgens Alex de Vries-Gao, datawetenschapper aan de Vrije Universiteit Amsterdam, is de opmars van AI niet te stuiten. “Het gebruik van AI groeit razendsnel, zowel onder consumenten als in het bedrijfsleven. Of het nu gaat om ChatGPT, AI in auto’s of slimme zoekalgoritmes, de rekenkracht die daarachter zit, jaagt het stroomverbruik fors omhoog.”

Zijn onderzoek onthult dat als deze trend zich voortzet, AI tegen het einde van dit jaar zelfs goed zou kunnen zijn voor de helft van het totale stroomverbruik van alle datacenters wereldwijd.

Onderzoek zonder openheid

Wat het extra uitdagend maakt, is dat grote techbedrijven zoals OpenAI (de maker van ChatGPT) en Meta (moederbedrijf van Facebook) geen cijfers vrijgeven over het energieverbruik van hun AI-systemen. Daarom koos De Vries voor een alternatieve aanpak.

Hij richtte zich op de chips waarmee AI draait — vooral die van Taiwan Semiconductor Manufacturing Company (TSMC), de grootste chipproducent ter wereld. “Zie het als het tellen van visitekaartjes,” legt De Vries uit. “Als je weet hoeveel papier je hebt en hoe groot één kaartje is, kun je berekenen hoeveel er gedrukt kunnen worden. Zo heb ik gekeken naar de productiecapaciteit van TSMC en hoeveel AI-chips daaruit voortkomen.”

Door deze gegevens te combineren met het geschatte energieverbruik van de hardware, kwam hij uit op het indrukwekkende percentage van 11 tot 20 procent van het wereldwijde datacenterverbruik dat nu al door AI wordt opgeslokt.

De energievraag van een land

Die getallen staan niet op zichzelf. Uit recente scenario’s van Netbeheer Nederland blijkt dat het stroomverbruik van datacenters in Nederland in 2050 met 40 tot 70 procent zal toenemen. De voornaamste oorzaak? De explosieve toename in AI-toepassingen.

Ook het Internationaal Energieagentschap (IEA) luidde eerder dit jaar de alarmbel. In 2024 zouden datacenters samen goed zijn voor zo’n 415 terawattuur, oftewel 1,5 procent van het wereldwijde energieverbruik. En dat cijfer zou tegen 2030 meer dan verdubbelen naar 945 terawattuur – bijna gelijk aan het hele huidige energieverbruik van Japan.

Slimmer omgaan met energie: hoopvolle signalen

Toch betekent deze ontwikkeling niet automatisch een catastrofe voor het klimaat. Het IEA plaatst daar een belangrijke kanttekening bij: de stijging in CO₂-uitstoot door datacenters blijft vooralsnog relatief beperkt. En sterker nog: slimme AI kan juist ook bijdragen aan energie-efficiëntie, bijvoorbeeld door processen te optimaliseren of verspilling te verminderen.

Maar de realiteit in Nederland is dat het elektriciteitsnet op veel plaatsen al vol zit. Door de zogeheten netcongestie kunnen er nauwelijks nog nieuwe bedrijven, zoals datacenters, worden aangesloten. De vraag rijst dus: hoe houden we AI toekomstbestendig én duurzaam?

AI moet zelf ook slimmer worden

Aan de TU Delft proberen onderzoekers daarop een antwoord te vinden. PhD-kandidaat Enrique Barba Roque onderzoekt manieren om AI-modellen compacter en energiezuiniger te maken. “Een groot taalmodel zoals ChatGPT is gigantisch,” legt hij uit. “Maar vaak is maar een klein deel van dat model nodig voor een simpele taak. Door dat gerichter te gebruiken, besparen we stroom.”

Barba ontwikkelde ook de GreenChat-plugin, die gebruikers laat zien hoeveel energie hun AI-vraag kost. “Omdat bedrijven daar zelf geen openheid over geven, werken we met schattingen. Maar het geeft mensen wel inzicht in de impact van hun digitale gedrag.”

Hij onderzocht ook de perceptie van gebruikers: “We vroegen mensen wat volgens hen meer energie kost – een vraag googelen of stellen aan ChatGPT. Veel mensen denken dat ChatGPT zuiniger is. Maar dat is niet zo. Voor eenvoudige vragen zoals ‘wat is de hoofdstad van Frankrijk?’ kun je beter Google gebruiken. ChatGPT komt pas echt tot zijn recht bij complexere opdrachten.”

De AI-toekomst: razendsnel, maar niet zonder kosten

De opkomst van AI biedt ongekende mogelijkheden, maar kent ook een keerzijde. Wat zich afspeelt in de zwarte dozen van datacenters wereldwijd, heeft directe gevolgen voor onze energievoorziening, klimaatambities en infrastructuur.

De uitdaging voor de komende jaren? AI krachtiger én slimmer maken, met een scherp oog voor energieverbruik en duurzaamheid. Want één ding is zeker: AI blijft groeien — maar onze stroomvoorraad groeit helaas niet automatisch mee.

'Meld je aan voor de nieuwsbrief' van HCC!artificieleintelligentie

'Abonneer je nu op de nieuwsbrief en blijf op de hoogte van onze activiteiten!'

Aanmelden