“We hebben dringend een nutriscore voor AI nodig”

De hype rond generatieve AI overschaduwt een fundamenteler debat: hoe houden we AI duurzaam en verantwoord? Erik Mannens, onafhankelijk AI-expert en deeltijds hoogleraar aan UGent en UA, heeft een dissident standpunt als het gaat over het nut van al dat AI-geweld. In zijn boek Sustainable AI kaart hij de bedreiging aan die artificiële intelligentie vormt voor mens én planeet. “Vaak zijn voor bedrijven kleinere, gerichtere modellen efficiënter dan generatieve AI.”

Erik Mannens: “Tot 2022 gebruikte Google AI om zijn serverinfrastructuur te optimaliseren en het verbruik van het serverpak te verkleinen. Toen kwam de AI-hype door ChatGPT en wilde ook Google niet achterblijven. Sinds Trump staan de grote spelers niet langer onder druk om werk te maken van duurzamere AI en meer transparantie over hun energieverbruik.”

Hoeveel verbruikt het trainen van pakweg ChatGPT?

“Over ChatGPT3 speelde OpenAI-baas Sam Altman – uitzonderlijk – open kaart. ChatGPT3 kostte enkele gigawattuur (GWh) aan energie om te trainen met 175 miljard parameters. Maar modellen als GPT5 en Gemini (Google DeepMind) hebben (ze maken het niet bekend, wdh) daar een veelvoud van. Dat kost tot honderden GWh aan energie. En er zijn nu al 200 of 300 van die GenAI-systemen in de wereld.”
“Duizend vragen stellen aan ChatGPT verbruikt 10% van een iPhone charge, goed voor ongeveer 1 wattuur (Wh). Voor de generatie van een multimedia beeld is dat een volle iPhone charge (10 Wh). Eind augustus 2025 kwam Google eindelijk met een rapport: een default query verbruikt 0,34 Wh. Met 10% van een iPhone charge kan je dus geen 1000 keer iets vragen aan Gemini, maar 3 keer. Het is dus nog veel erger dan dat we denken.”

Een stelling die kan tellen. Want Microsoft, Google, Amazon en Meta besteden wél 750 miljard aan datacentra bestemd voor (vooral) generatieve AI. 4% van de stroom opgewekt in de VS zal naar die datacenters gaan.

“De komende 10 jaar moet de techindustrie 50% minder energie gaan verbruiken. Nu al gaat 10% van alle elektriciteit naar ICT. Als we zo verder gaan, zitten we tegen 2030 aan 20%. Onze wereldbol kan dat niet aan.”

U zegt daarmee eigenlijk dat de AI-boom zoals die nu is, de hele energietransitie in gevaar kan brengen.

“Juist, en dat is nergens voor nodig. Een LLM (Large Language Model) als ChatGPT is geen Zwitsers zakmes. Het is goed voor samenvattingen en vertalingen en om vragen te beantwoorden. Bedrijven vragen mij hoe ze Gen AI moeten toepassen, maar ik zie maar in 10% van de gevallen een solide use case voor pakweg ChatGPT, DALL-E, Gemini of Microsoft Copilot.”

“Je moet je afvragen voor welk proces je AI toepast. Met mijn team heb ik voor bedrijven enkele cases opgelost. AI betekende daar meerwaarde én extra duurzaamheid. We optimaliseerden een solvent switch-proces bij een grote farmaceut. De doorlooptijd is teruggebracht van 8 naar 6 uur en het oplosmiddelverbruik daalde met 25%: van 1 miljoen naar 750.000 liter in een van de grootste industriële processen van België. Nog eentje: een ESA-satellietproject maakte gebruik van een multispectrale camera. Het proces, AI op multi-spectrale beelden, mocht niet meer dan 1 Watt verbruiken: de capaciteit van de zonnepanelen liet niet meer toe. Dat losten we op met een specifiek type netwerk: spiking neural nets (SNNs). Dankzij die technologie kon het beperkte vermogen toch toereikend zijn.”

Om AI klimaatvriendelijker te maken, hoeven we het niet te beperken, maar moeten we weg van generatieve AI?

“Over tien jaar lachen we ons een kriek: waar waren we mee bezig? De techreuzen van vandaag doen maar because they can. Laat Europa slimme systemen ontwikkelen waarop we het patent in handen houden. Ons brein verbruikt 20 watt aan vermogen wanneer we denken. Voor echt innovatieve nieuwe AI systemen is samenwerking met biologen en chemici nodig. Ik liet mijn jonge kinderen vijf foto’s van een zebra en vijf van een leeuw zien. De zesde foto liet ik hen raden: leeuw of zebra natuurlijk. Geen enkel AI-systeem kan met maar tien foto’s voorspellen welk dier het volgende is. Er zijn minstens honderdduizend foto’s nodig om AI goed te trainen voor beeldherkenning. Daar zit nog veel winst.”

Veel bedrijven willen AI snel inzetten, maar er zijn misverstanden over het nut van LLM’s.

“Grote spelers tonen indrukwekkende demo’s in gecontroleerde omgevingen, maar die toepassingen zijn vaak beperkt. In de praktijk is out-of-the-boxgebruik zelden écht geschikt. Het C-level in bedrijven is vaak teleurgesteld over hun chatbot, omdat ze er teveel van verwachtten. Ik denk dat chatbots en LLM’s eerstelijns belangrijk blijven, omdat het dé interfaces zullen zijn waarmee we met digitale systemen interageren. Muis en keyboard zijn passé. LMM’s zullen alles vertalen naar één of andere agent. LMM’s zullen dus blijven, de modellen zijn getraind, maar enkel nodig voor een fractie van alle use cases.”

Toch wordt de arbeidsmarkt de voorbije drie jaar op zijn kop gezet. Programmeurs worden massaal werkloos omdat ChatGPT hun job overneemt. In de zorg wordt AI ingezet voor beeldvorming en diagnostiek.

“LLM’s zijn heel sterk in samenvatten, vertalen en vibe-codering (softwareontwikkeling waarbij natuurlijke taalprompts worden gebruikt om AI-modellen de code te laten genereren, wdh). Maar daarom is die code niet perfect. AI kan artsen tijd besparen en wordt steeds relevanter voor triage op spoed, maar ook daar is governance nodig. Black box-systemen zijn problematisch: we hebben explainable AI nodig. Je wil weten waar een resultaat vandaan komt.

Welke vormen van AI hebben een aantoonbare toegevoegde waarde, waarbij ze ook duurzaam zijn, dus volgens de parameters waar we het daarnet over hadden, op energievlak voor de mens, voor de planeet?

“Deep neural networks zijn standaard niet explainable, al kunnen pre- en post-processing stappen ze deels inzichtelijk maken. Er is behoefte aan methoden die van nature uitlegbaar zijn, zoals knowledge graphs. Dan is er ook federated learning. Dat heeft veel toekomst om twee redenen. Je kan meer context meenemen in de beslissing waar of wanneer een berekening moet gebeuren, en je privacy is verzekerd. Data blijft altijd lokaal. Wat gedeeld wordt, is de opgedane kennis, terwijl je nu je data weggeeft aan het netwerk. Voor sommige use cases zijn energie-efficiënte spiking neural networks de uitkomst.”

Zijn dat dan allemaal AI-vormen voor industriële toepassingen? En vergelijk je dan geen appelen met peren als je dat naast generatieve AI zet?

“Voor iedere verschillende use case kunnen we andere AI gebruiken. Als het gaat over taal, is er geen objectherkenning in video nodig. Dan heb je taalmodellen/knowledge graphs nodig. Maar moet dat dan het grootste taalmodel zijn? Voor de ene toepassing wel, voor andere niet. Een use case kan een robot zijn die eenvoudige handelingen uitvoert. Daarvoor is maar een klein taalmodel nodig. We moeten evolueren naar gerichtere taalmodellen. Een 100 miljoen parameters-model is misschien niet nodig voor een perfect werkend AI systeem, waardoor dat veel minder energie zal verbruiken.”

AI-agents zijn de volgende stap richting autonome, contextbewuste en doelgerichte AI-systemen, vooral voor industriële toepassingen en complexe taken.

“Klopt, een AI-agent is een systeem dat autonoom kan opereren. Het kan waarnemen, beslissen en doelgericht actie ondernemen. Agents kunnen onderling communiceren, informatie uitwisselen en zelfstandig hun weg vinden in complexe omgevingen. ChatGPT is geen agent maar een assistent: je stelt een vraag en krijgt antwoord, maar je bepaalt zelf wat er vervolgens mee gebeurt. Een agent koppelt en kan ook handelen, bijvoorbeeld door hotels te boeken of een reisroute te plannen en uit te voeren.”

Kunnen we die fase bereiken met wat een degrowth in AI is waar u voor pleit?

“Het gaat vooral over een extra laag erbij: de ‘politie’agent. In mijn boek noem ik dat De agent die over al de andere agent zal waken. Je zal zelf kunnen nagaan of jouw AI voldoet aan bepaalde criteria. Je kan je personal AI agent toelating geven om andere agents in te schakelen, maar hem meegeven het maximaal zoveel energie mag kosten. Zo zouden we elk AI model een soort nutriscore kunnen geven.”

AI met een energielabel. Dat zou Europees ontwikkeld kunnen worden, want Europa is de regulator.

(knikt) “We hebben meer macht dan we denken. We hebben niet de deep pockets, maar met imec wel het enige onderzoekscentrum in de westerse wereld dat bezig is met de next wave AI-chips. Alle grote bedrijven, ook Nvidia, zijn daar afhankelijk van. En om ze te maken is er ook maar één producent van de juiste lithografiemachines: ASML in Eindhoven. Zonder imec en ASML geen ChatGPT. Ik snap niet waarom we dat niet meer inzetten.”

Ziet u use cases voor HR? Kunt u het C-level aanbevelingen geven?

“Op C-level niveau is er iemand nodig die weet wat AI allemaal kan. Zijn er use cases voor binnen de organisatie? Heb je een proces dat je wilt optimaliseren? Kan AI helpen om dat proces te verbeteren? Op basis daarvan moet het soort AI gekozen worden. Voor objectherkenning in videostreams zijn neurale netwerken momenteel het meest geschikt. Voor chatbots heb je altijd een LLM nodig, maar misschien geen groot model. Probeer lokaal of op Europese servers te draaien voor meer controle. Vlaanderen heeft dringend behoefte aan een eigen Vlaams taalmodel, want nu wordt alles nog vertaald naar het Engels en verdwijnen dus de lokale taalnuances. We beschikken over voldoende data, maar mediabedrijven stellen ze tot op heden niet beschikbaar voor gezamenlijke ontwikkeling van een taalmodel.

Hoe ziet u AI verder evolueren?

“Nog even terug naar die twee gescheiden soorten AI: semantics/knowledge graphs en patroonherkenning (o.a. LLM’s en diepe neurale netwerken). Bij semantics ga je samen zitten met een domeinexpert, bijvoorbeeld een HR-manager, en modelleren we de hele wereld van dat domein in entiteiten en relaties. Daarna kan het systeem daarover redeneren, en daarvoor is niet veel data nodig om tot nieuwe inzichten te komen. Patroonherkenning is wat LLM’s doen: het zijn statistische modellen die voorspellen wat het volgende woord zal zijn. Het zijn word guessers on steroids. Echt ‘intelligentie’ zit daar niet achter.”

“De uitdaging is om die twee werelden te verbinden: reasoning-technieken zoals chain-of-thought brengen semantiek in LLM’s en maken complexere en beter uitlegbare beslissingen mogelijk. Maar de huidige technieken blijven energievreters, zowel om te trainen als bij gebruik naderhand.”

Hoe gaat u zelf nu concreet verder werken aan AI-governance?

“Ik wil de schakel zijn tussen de technische aspecten van Europese wetgeving (Data Act) en bedrijfsimplementatie via AI-covenants. Duurzaamheid blijft voor veel bedrijfsleiders belangrijk. Voor veel jongere medewerkers is het zelfs essentieel. Duurzame keuzes zijn vb. ook energiezuinige AI-chips of servers op groene stroom. Bedrijfsleiders kunnen in hun aanbestedingen eisen stellen aan leveranciers over energieverbruik, hardware en locatie van servers. Door systematisch verantwoording te eisen van de grote spelers, kunnen we echt verandering afdwingen.”

Schrijf je in op de wekelijkse HR-nieuwsbrief

Ook interessant

LEES MEER

Schrijf je in op de #ZigZagHR-Nieuwsbrief

  • Iedere dinsdagochtend om 8u00 in jouw mailbox
  • Ideeën, inspiratie, best & next practices over (de toekomst van) HR
  • Waarmee jij aan de slag kan in jouw organisatie of HR team