2min

Het genereren van een afbeelding is de meest vervuilende taak die een AI-tool kan doen. Het proces kan even vervuilend zijn als een smartphone volledig opladen. De uitstoot varieert wel tussen verschillende AI-modellen en voornamelijk Stable Diffusion XL presteert slecht op dit vlak.

Eerdere studies bewezen al dat het trainen van een AI-model veel energie vraagt. Een nieuwe studie bekijkt nu hoe deze situatie evolueert als het model echt in een AI-product gebakken zit. De studie toont dat de training slechts een fractie van het probleem is.

AI-modellen stoten het meeste CO2 uit als ze in een product gebruikt worden. Het genereren van een afbeelding laat de meters van Code Carbon het hoogst schieten. Code Carbon is de tool die de onderzoekers ontwikkelde om de CO2-uitstoot te meten tijdens het laten uitvoeren van een prompt. Alle gebruikte prompts werden gemaakt op basis van de tien meest gevraagde taken aan de AI-tools van Hugging Face. Dezelfde prompts passeerden langs 88 verschillende modellen.

Afbeeldingen slurpen

1.000 afbeeldingen genereren is het equivalent van 6,4 kilometer rijden met een benzine-auto als je Stable Diffusion XL inzet. Dit model van Stability AI bleek de grootste uitstoot te hebben. Bij het minst vervuilende model kan je voor deze hoeveelheid afbeeldingen slechts 0,966 meter rijden.

Het onderzoek moet iedereen die wil werken met AI-tools helpen om hun CO2-uitstoot zo klein mogelijk te houden. Dat zou mogelijk zijn door altijd te zoeken naar AI-tools die specifiek ontworpen zijn voor de situatie waarin de gebruiker de tool wil inzetten. Een algemeen model zal bij het schrijven van een samenvatting bijvoorbeeld ook nadenken over een nieuwe tekst en over een mogelijke opsomming van de tekst. Daardoor verspilt het model meer energie dan nodig is. Deze denkpisté gaat alleen niet op bij het genereren van afbeeldingen waar modellen al zijn ontwikkeld voor deze specifieke taak.

Lees ook: Waterverbruik ChatGPT is astronomisch: elke 40 prompts kost een liter