Google verlaagt energieverbruik van Gemini met factor 33

Deel dit artikel

,

Google gebouw

Het energieverbruik van kunstmatige intelligentie staat volop in de belangstelling. Datacenters groeien wereldwijd razendsnel en de vraag naar rekenkracht voor AI-modellen zoals ChatGPT en Google Gemini neemt explosief toe. Critici waarschuwen dat dit leidt tot torenhoge energierekeningen en een forse belasting van het milieu. Tegen deze achtergrond presenteerde Google deze week opvallend nieuws: het energieverbruik van de AI-assistent Gemini is in 1 jaar tijd met een factor 33 teruggebracht. Volgens een intern onderzoek van moederbedrijf Alphabet is ook de CO₂-uitstoot met een factor 44 gedaald.

Een query kost minder stroom dan een paar seconden televisie

Gemiddeld vraagt een enkele vraag aan Gemini nu 0,24 wattuur aan stroom. Google illustreert dit zelf met een eenvoudige vergelijking: dat is minder dan negen seconden televisie kijken. Daarmee, zo stelt het bedrijf, ligt het werkelijke verbruik veel lager dan sommige onafhankelijke schattingen eerder suggereerden.

Dat is opmerkelijk, want veel rapporten uit de Verenigde Staten en Europa hebben de afgelopen maanden juist de alarmbel geluid. Daaruit bleek dat de groeiende datacenters voor AI een enorme extra belasting vormen voor het elektriciteitsnet. Soms worden de kosten zelfs deels doorgeschoven naar huishoudens, waardoor de energierekening van gewone gebruikers stijgt. Ook milieuorganisaties hebben zorgen geuit: hoe duurzaam is de AI-revolutie als er miljarden kilowatturen aan extra stroom voor nodig zijn?

Slimmere software en efficiëntere hardware

Volgens Google zelf zit de verklaring voor de forse efficiëntiewinst vooral in slimmer softwareontwerp. Waar een taalmodel normaal gesproken bij iedere vraag het volledige neurale netwerk aanspreekt, bepaalt Gemini nu vooraf welk deel van de code werkelijk nodig is om een antwoord te genereren. Hierdoor hoeft niet elke query het hele model door te rekenen, wat flink scheelt in stroomgebruik.

Daarnaast zijn de datacenters zelf beter ingericht. Hardwarecomponenten, zoals gespecialiseerde AI-processors (TPU’s), worden efficiënter benut. Ook is de interne logistiek van het dataverkeer verbeterd, waardoor servers minder lang ‘nutteloos’ energie verbruiken. Google benadrukt dat het een combinatie van kleine en grote verbeteringen is die samen voor dit spectaculaire resultaat hebben gezorgd.

Waarom dit zo belangrijk is

De timing van dit nieuws is niet toevallig. Sinds begin dit jaar besloot Google dat elke reguliere zoekopdracht in de zoekmachine automatisch ook als AI-query wordt verwerkt. Volgens de laatste cijfers gaat het om zo’n 100.000 zoekvragen per seconde. Als al die vragen via AI-modellen lopen, is een drastische reductie in energieverbruik noodzakelijk om de impact beheersbaar te houden.

Tegelijkertijd groeit de maatschappelijke druk. Overheden onderzoeken of techbedrijven voldoende bijdragen aan de kosten van nieuwe elektriciteitscentrales en netuitbreidingen. Zonder forse efficiëntiewinst zou de snelle groei van AI een reëel risico vormen voor zowel betaalbaarheid als duurzaamheid van de energiemarkt.

Kritische kanttekeningen

Toch blijven er vragen. Google geeft zelf weinig details over de exacte methodologie van de metingen, en externe verificatie ontbreekt. Onafhankelijke experts wijzen erop dat de totale impact van AI niet alleen wordt bepaald door de efficiëntie per vraag, maar vooral door de schaal waarop deze systemen draaien. Zelfs als elke query minder stroom kost, kan het totale energieverbruik alsnog flink stijgen door de enorme aantallen.

Bovendien wordt niet duidelijk hoeveel van de besparing komt door softwareverbeteringen en hoeveel door simpelweg efficiëntere hardware. Nieuwe chips zijn immers altijd zuiniger dan de vorige generatie, maar vragen ook weer nieuwe productiefaciliteiten en materialen – met hun eigen ecologische voetafdruk.

Vooruitblik

De aankondiging van Google laat zien dat er stappen gezet worden richting een meer energie-efficiënte AI-toekomst. Toch zal het debat over duurzaamheid en kostenverdeling voorlopig niet verstommen. Het is aannemelijk dat andere bedrijven zoals Microsoft, Meta en OpenAI ook zullen benadrukken hoeveel zij investeren in energie-efficiëntie.

Voor gebruikers en beleidsmakers blijft de kernvraag echter: hoe zorgen we ervoor dat de AI-revolutie niet alleen slimmer, maar ook duurzamer en eerlijker wordt?

Disclaimer HCC
HCC heeft geen enkel belang in de genoemde bedrijven of technologieën. Dit artikel is uitsluitend bedoeld om leden te informeren over actuele ontwikkelingen op het gebied van kunstmatige intelligentie en energieverbruik. Leden wordt aangeraden altijd meerdere bronnen te raadplegen en kritisch te blijven bij het interpreteren van claims van grote technologiebedrijven.

'Meld je aan voor de nieuwsbrief' van HCC!artificieleintelligentie

'Abonneer je nu op de nieuwsbrief en blijf op de hoogte van onze activiteiten!'

Aanmelden