AI behøver ikke mere energi, men derimod en mindre magtkoncentration
Foto: Atomkraftværket i Cattenom, Frankrig, Rehman, Wikimedia Commons.
AI samfundet er besat af at forfølge mantraet om større modeller, større datasæt, mere beregning. Kun på den måde forbedres nøjagtigheden af AI-modellerne, lyder det.
Men der er omkostninger: Træning af en enkelt AI-model kan koste hundredvis af millioner af dollars i cloud computing samt bruge tusindvis af MWh energi.
Samtidig har det vist sig, at jo større AI modellerne er, jo mere hallucinerer de.
Artiklen her tager udgangspunkt i en artikel i Tech Policy den 16. maj 2025 skrevet af Dr. Sasha Luccioni, en førende forsker i krydsfeltet mellem kunstig intelligens, etik og bæredygtighed
Det dominerende paradigme
Ved en senatshøring i begyndelsen af maj måned 2025 udtalte OpenAI’s adm. dir. Sam Altman, at “omkostningerne ved AI vil konvergere til energiomkostningerne … mængden af den vil være begrænset af mængden af energi.” Det er i tråd med Silicon Valleys gennemgående vision om at udvikle AGI (kunstig generel intelligens) eller AI-systemer, som vil være i stand til at udføre enhver opgave, der stilles dem, på lige fod med mennesker. Det dominerende paradigme, der er blevet accepteret for at forfølge det, er ‘større modeller, større datasæt, mere beregning’ … samt en stadigt stigende mængde energi.
Tager vi det for givet, at dette paradigme er den bedste måde at opnå denne hellige gral af techbros, så giver Altmans udtalelse rigtig megen mening. Men Dr. Sasha Luccioni giver i sin artikel udtryk for hendes holdning om, at både målet med AGI og den måde, hvorpå det forfølges i øjeblikket, langt fra er den eneste tilgang, der findes, og ikke mindst at vi bør stoppe op og reflektere over uundgåeligheden af denne erklæring, før vi kaster flere kulkraftværker, gasturbiner eller atomreaktorer efter det formodede problem.
Større er ikke altid bedre
AI-samfundets besættelse af størrelse kan i høj grad tilskrives et blogindlæg fra 2019 af Rich Sutton, hvor han insisterer på vigtigheden af øget beregning og skalering for at forbedre nøjagtigheden af AI-modeller. Denne idé, skriver Sasha Luccioni, blev adopteret af maskinlæringsfællesskabet som en filosofi – at når større modeller trænes på flere data med mere beregning, forbedres deres ydeevne. Denne ydeevne kommer med en omkostning, der betyder at træning af en enkelt AI-model kan koste hundredvis af millioner af dollars i cloud computing (se tabel nedenfor) – og bruge tusindvis af MWh energi.
| Model name | Number of parameters | Energy consumption | CO₂eq emissions |
|---|---|---|---|
| GPT-3 | 175B | 1,287 MWh | 502 tons |
| Gopher | 280B | 1,066 MWh | 352 tons |
| OPT | 175B | 324 MWh | 70 tons |
| BLOOM | 176B | 433 MWh | 25 tons |
Men denne brute force-tilgang til modeltræning, dvs. systematisk at prøve alle mulige løsninger, indtil den rigtige er fundet, er ikke den eneste, der er tilgængelig. Der er alternative, herunder mindre modeller (som smolLM-familien), der opnår den samme ydeevne med en brøkdel af beregningen. Der er også teknikker som filtrering og kvantisering, en grundlæggende teknik inden for digital signalbehandling, datakomprimering og maskinlæring, der bruges til at reducere præcisionen af data, mens de stadig repræsenterer den originale information, som reducerer størrelsen på modeller, så de kan køre lokalt på en bærbar computer eller endda en telefon, hvilket ikke kun reducerer energi og emissioner, men også hjælper med hensyn til privatliv og databeskyttelse.
Jo mere kraftfuld – dets flere fejl
De nyeste og mest kraftfulde teknologier – de såkaldte ræsonnement systemer fra virksomheder som OpenAI, Google og den kinesiske start-up DeepSeek – genererer flere fejl, ikke færre. Efterhånden som deres matematiske færdigheder er blevet markant forbedret, er deres greb om fakta blevet mere rystende. Det er ikke helt klart hvorfor.
AI-bots er baseret på komplekse matematiske systemer, der lærer deres færdigheder ved at analysere enorme mængder digitale data. De beslutter ikke og kan ikke afgøre, hvad der er sandt, og hvad der er falsk. Nogle gange finder de bare på ting, et fænomen, som nogle AI-forskere kalder hallucinationer. Ved en test var hallucinationsraten for nyere AI-systemer så høj som 79 procent.
Systemerne bruger matematiske sandsynligheder til at gætte det bedste svar, ikke et strengt sæt regler defineret af menneskelige ingeniører. Derfor laver de et vist antal fejl. “På trods af vores bedste indsats vil de altid hallucinere,” hedder det fra Amr Awadallah, der er adm. dir. for Vectara, en start-up, der bygger AI-værktøjer til virksomheder, og tidligere Google-chef. “Det vil aldrig forsvinde.”
Eksempler på fejl og hallucinationer finder du i artiklen HER.
Større er også mere koncentreret
Hele tankesættet som ligger bag Altmans vidneudsagn forstærker den eksisterende magtdynamik i AI, hvor store teknologivirksomheder med adgang til massive supercomputere får en fordel, hvilket former fortællingen. I de senere år, siden lanceringen af ChatGPT, har det været tilfældet. AI-modeller er blevet både større i størrelse og i stigende grad koncentreret i en håndfuld organisationer, der har råd til at træne dem. Det gør også AI-forskere afhængige af bevillinger og finansiering fra de samme organisationer, hvilket resulterer i øget industriel indflydelse på akademisk integritet og frihed på området. Når de samme få virksomheder både sponsorerer og former AI-forskningen, leverer den beregning, der kræves for at udføre den, og sælger brugerne værktøjer og annoncer baseret på denne forskning, bliver feltet som helhed et ekkokammer for Big Techs interesser, hvilket har konsekvenser for samfundet som helhed.


Skal AI’s energimangel være påskuddet til at genåbne atomkraftværker?
Atomkraft er nu blevet den vigtigste energikilde, der kan drive AI-boomet. Det fremgår af Microsofts aftale om at genstarte Three Mile Island, Altmans investeringer i Helion, en startup, der arbejder på at udvikle og kommercialisere nuklear fusion, eller Googles aftale med Kalios om at købe atomenergi fra små modulære reaktorer (SMR’er) til at drive Googles datacentre.
Sasha Luccioni stiller spørgsmålet: Hvad der sker, når den (med rette) langsommelige atomenergisektor møder Silicon Valleys “move fast and break things” -mentalitet? Hun er med rette bekymret for, at der vil blive skåret hjørner eller sprunget over hvor gærdet er lavest i den uendelige søgen efter at generere mere energi til at give næring til AI’ens søgen efter skala og beregning.
Vi skal modarbejde den fortælling ved at udforske alternative måder at træne og implementere AI-modeller på. Vi skal kræve, at AI-virksomheder måler og oplyser deres energiforbrug og emissioner mere stringent, og holde dem ansvarlige, hvis (eller når) tingene går galt – derved kan vi stadig styre AI i en anden retning. Som Dr. Ruha Benjamin så veltalende har udtrykt det: “Uanset hvad der sker i fremtiden, uanset om den er afskyelig eller kærlig, vil den være en afspejling af, hvem vi er, og hvad vi gør den til.”
Som Sasha Luccioni skriver:
Frem for at tro at fremtiden for AI allerede er skrevet, og at den vil kræve uendelige mængder energi, må vi i stedet kollektivt forestille os og forme en alternativ model, hvor AI-modeller er mindre og mere effektive, bruges på mere sparsommelige måder og udvikles af et stort antal mennesker og organisationer, ikke kun af en håndfuld teknologivirksomheder.
