TEDx selectie: “We’re Doing AI All Wrong!” #energy

AI wordt ons gepresenteerd als de technologie die alles zal oplossen: wetenschap revolutioneren, productiviteit opkrikken, zelfs de klimaatcrisis aanpakken. Maar volgens anderen zal diezelfde AI juist het einde van de mensheid betekenen. Welke versie je hoort, hangt vooral af van wie je het vraagt. Zo zegt wetenschapper Sasha Luccioni.
Volgens mij slaan beide verhalen de plank mis. Ze leiden ons af van het echte probleem: we ontwikkelen en gebruiken AI op een manier die mensen en de planeet schaadt.
Vandaag de dag gebruiken een handvol grote bedrijven hun enorme kapitaal om grote taalmodellen – zogeheten LLM’s – te verkopen als dé oplossing voor al onze problemen. Misschien omdat ze hopen op superintelligentie, emotionele intelligentie, of welke hype Silicon Valley deze week ook maar volgt. In die race bouwen ze steeds grotere datacenters, zonder rekening te houden met mens of milieu.
Meta wil de komende jaren een datacenter bouwen ter grootte van Manhattan, als onderdeel van een investering van honderden miljarden dollars in de jacht op superintelligentie. OpenAI kondigde onlangs de eerste fase aan van zijn Stargate-datacenter in Texas, dat jaarlijks 3,7 miljoen ton CO₂-equivalent zal uitstoten – net zoveel als heel IJsland. En xAI wordt aangeklaagd door inwoners van South Memphis vanwege de luchtvervuiling veroorzaakt door 35 gasturbines die hun datacenter van stroom voorzien, met ernstige gevolgen voor de gezondheid van de meest kwetsbare bewoners.
Wetenschappers en activisten, waaronder ikzelf, waarschuwen hier al jaren voor. Klinkt dit bekend? Denk aan Big Oil. Nu zien we Big AI exact dezelfde strategie volgen: steeds meer grondstoffen gebruiken, steeds grotere infrastructuren bouwen, en ons vertellen dat dit onvermijdelijk is.
Maar wat als we lessen trekken uit het verleden? Wat als we een toekomst bouwen waarin AI iets teruggeeft aan de planeet, in plaats van haar verder uit te putten? Een toekomst met kleine maar krachtige modellen, die beter presteren én duurzamer zijn. Dat vraagt wel dat we de macht – letterlijk en figuurlijk – terughalen bij grote AI-bedrijven en die leggen bij ontwikkelaars, beleidsmakers en gebruikers.
Vandaag gebruiken we AI alsof we alle stadionlampen aandoen om een verloren sleutel te vinden. Enorme modellen, getraind met het energieverbruik van een kleine stad, alleen maar om een mop te vertellen of een recept te bedenken. Dit komt voort uit het “bigger is better”-dogma: meer parameters, meer data, meer rekenkracht, meer energie zou automatisch betere prestaties betekenen. Het hoogtepunt van die gedachtegang zijn LLM’s zoals ChatGPT: algemene modellen die alles moeten kunnen. Maar die veelzijdigheid heeft een prijs. Modellen die alles een beetje kunnen, verbruiken per taak veel meer energie dan modellen die voor één specifieke taak zijn ontworpen.
In een studie die ik leidde, onderzochten we het energieverbruik van LLM’s bij eenvoudige vragen, zoals: “Wat is de hoofdstad van Canada?” Vergeleken met een klein, taakgericht model bleken ze tot dertig keer meer energie te verbruiken. En naarmate het energieverbruik stijgt, stijgen ook de kosten. Daardoor wordt state-of-the-art AI steeds onbereikbaarder voor startups, onderzoekers en non-profits. De toekomst van een technologie die miljarden mensen raakt, komt zo in handen van een paar grote bedrijven die opereren volgens het motto “move fast and break things”.
Toch is er, buiten de schijnwerpers van ChatGPT en DeepSeek, stilletjes een revolutie gaande. Kleine taalmodellen – small LMs – zijn ordes van grootte kleiner dan traditionele LLM’s. De kleinste telt zo’n 135 miljoen parameters: ongeveer 5.000 keer kleiner dan DeepSeek. Ze doorbreken het “bigger is better”-dogma door minder data, minder rekenkracht en minder energie te gebruiken, terwijl ze vergelijkbare prestaties leveren.
De data waarmee deze modellen zijn getraind, is zorgvuldig geselecteerd: zestig procent bestaat uit educatieve webpagina’s van hoge kwaliteit. Dat verkleint de kans op desinformatie en toxische output. Omdat de modellen zo klein zijn, kunnen ze zelfs op je telefoon of in je browser draaien. Dat betekent krachtige AI, zonder megadatacenters. Bovendien bieden ze voordelen op het gebied van cybersecurity, privacy en datasoevereiniteit. En omdat ze goedkoper te trainen zijn, krijgen kleinere bedrijven weer een kans om te concurreren en hun modellen te delen met de gemeenschap. Reduce, reuse, recycle – ook voor AI.
Maar duurzame AI gaat verder dan alleen kleine taalmodellen. Als we AI écht willen inzetten tegen klimaatverandering, moeten we verder kijken dan LLM’s. ChatGPT kan uitleggen wat het Klimaatakkoord van Parijs is, maar het kan geen extreem weer voorspellen. Daarvoor heb je modellen nodig die natuurkundige processen begrijpen. En een chatbot kan klimaatverandering uitleggen, maar helpt een boer niet bepalen wanneer hij moet zaaien op basis van temperatuur, luchtvochtigheid en historische data.
Er bestaan al zulke alternatieven. Door NASA gefinancierde onderzoekers ontwikkelden de Galileo-modellen voor toepassingen als gewasmonitoring en overstromingsdetectie, zonder gespecialiseerde hardware. Rainforest Connection gebruikt kleine AI-modellen op oude telefoons met zonnepanelen om regenwouden te beluisteren en illegale houtkap te detecteren. En Open Climate Fix analyseert satellietbeelden en weersdata om de opbrengst van zonne- en windenergie te voorspellen, wat helpt bij het verduurzamen van energienetten – inclusief die van datacenters.
Een groot probleem blijft echter dat we als gebruikers niet weten hoeveel energie een AI-model verbruikt of hoeveel CO₂ het uitstoot. Daardoor kunnen we geen duurzame keuzes maken, zoals we dat wel doen met voeding of vervoer. Daarom startte ik het AI Energy Score-project. We testten meer dan honderd open source-modellen en gaven ze een score van één tot vijf sterren op basis van energie-efficiëntie.
Weer die hoofdstad van Canada: Ottawa. Met een model als SmolLM kost dat 0,007 wattuur. Met een groot model zoals DeepSeek kost het 150 keer zoveel energie. Grote AI-bedrijven wilden hun modellen niet laten testen. Begrijpelijk misschien, want de waarheid zou hen niet goed uitkomen. Er zijn simpelweg nog te weinig wetten en prikkels om hen verantwoordelijk te houden. De Europese AI Act zet een eerste stap met vrijwillige rapportage, maar handhaving kost tijd – tijd die we niet hebben gezien de urgentie van de klimaatcrisis.
Het goede nieuws: we hoeven niet vast te blijven zitten aan de AI die Big Tech ons verkoopt, net zoals we niet voor altijd afhankelijk hoefden te zijn van kolen en olie. De toekomst van AI ligt niet vast. We kunnen samen een ander pad kiezen. Een toekomst met kleine, doelgerichte modellen die op onze telefoons draaien. Met transparantie over hun ecologische voetafdruk. Met wetgeving die bedrijven verantwoordelijk houdt. En met AI die de hele mensheid dient, niet alleen een paar winstgedreven techgiganten.
Met elke prompt, elke klik en elke vraag kunnen we samen de toekomst van AI duurzamer maken.



