De miljømæssige konsekvenser af AI
Billede: Jonathan Hammond, Pixabay
Den 1. februar 2024 introducerede den amerikanske senator Ed Markey “AI Environmental Impacts Act of 2024”.
Den uafhængige forskningsinstitution Data & Society besluttede, mod deres normale praksis, at støtte lovforslaget. Normalt ser de primært deres rolle som at fremme et empirisk, socioteknisk forskningsgrundlag, der kan belyse udfordringerne for de politiske beslutningstagere.
Når Data & Society valgte at støtte ‘AI Environmental Impacts Act’ skyldtes det nødvendigheden af at studere de miljømæssige konsekvenser af AI samt støtte et nyt forskningsfelt, der sætter spørgsmålstegn ved den intense computerkraft og det enorme energiforbrug, som AI-produkter kræver.
I artiklen ‘Why we’er endorsing the AI environmental impacts act’ fortæller Brian Chen, politisk direktør, og Tamara Kneese, program direktør, hvorfor det er nødvendigt at støtte lovforslaget.
Lovforslaget adresserer behovet for at vurdere og afbøde miljøpåvirkningerne af AI-teknologier og understreger vigtigheden af at forstå både de positive og negative effekter af AI på miljøet, med det formål at fremme gennemsigtighed og ansvarlighed i udviklingen og brugen af AI-systemer. Forslaget gennemgås mere uddybende HER.
Understregninger er tilføjet og uddybninger er sat i parentes.
Begrænset, men alarmerende viden
Lige nu har vi kun en begrænset forståelse af dybden og omfanget af AI’s miljøpåvirkninger – men det, vi ved, er alarmerende. Systemer med kunstig intelligens har en betydelig omkostning for planeten.
Forskere har fundet, at den geografiske placering af datacentre og tidspunktet på dagen, hvor maskinlæringsmodellerne (ML) trænes, spiller en væsentlig rolle i kulstofintensiteten af cloud computing. Sammen med deres kæmpe kulstofaftryk har de store sprogmodeller også et massivt vandaftryk, hvilket kan være ødelæggende for tørkeramte regioner, der er vært for datacentre.
[ Den globale efterspørgsel efter kunstig intelligens vil stå for 4,2 – 6,6 milliarder kubikmeter vandudtag i 2027, hvilket er mere end det samlede årlige vandudtag for 4 – 6 gange Danmarks eller halvdelen af Storbritanniens vandforbrug. Det er meget bekymrende, da ferskvandsmangel er blevet en af de mest presserende udfordringer, som vi alle deler i kølvandet på den hurtigt voksende befolkning, udtømning af vandressourcer samt forældede vandinfrastrukturer. ]
ML-modeller kræver vedvarende, intens beregningskraft, energi og materialer gennem hele AI-livscyklussen, herunder gennem træning og implementering. Men selv med disse resultater om AI’s miljøpåvirkninger er der endnu ikke en vedtaget standard for måling og rapportering af drivhusgasemissioner og andre klimarelaterede målinger. Der er behov for mere forskning for at afgøre, hvordan man bedst kan afbøde de forskellige miljøpåvirkninger af kunstig intelligens.
[ En forskningsrapport estimerede, at BLOOM sprogmodellens afsluttende træning udledte ca. 24,7 tons CO2, hvis kun det dynamiske strømforbrug blev taget i betragtning, og 50,5 tons, hvis der blev taget højde for alle processer lige fra udstyrsfremstilling til energibaseret driftsforbrug. ]
Lovforslaget vil bidrage til at fremme en streng og empirisk forståelse af AI’s indvirkning på miljøet og skabe standarder for måling og rapportering. Den pålægger Environmental Protection Agency at undersøge og offentligt rapportere om energi- og forureningspåvirkningerne af AI-modeller, deres fysiske hardware, datacentre og de forskellige effekter af AI’s negative miljøkonsekvenser. Det giver også National Institute of Standards and Technology mandat til at indkalde et konsortium for at identificere de metoder og standarder, der er nødvendige for at “måle og rapportere hele spektret af miljøpåvirkninger af kunstig intelligens.”
De fortrængte spørgsmål
Megen politisk opmærksomhed har med rette fokuseret på emner som algoritmisk diskrimination, trusler om mis-/desinformation samt ændrede arbejdsprocesser. I bund og grund er dette fokus på output fra et algoritmisk system: Hvad producerer AI? Er outputtet forudindtaget? Skaber det diskriminerende beslutninger, der udelukker muligheder for mennesker? Kan ondsindede aktører udnytte systemet til at generere deres egne ondsindede output? Hvordan vil AI’s evner til indholdsproduktion påvirke medarbejdere og kvaliteten af arbejdet?
Selvom disse spørgsmål er vigtige, har opmærksomheden på dem også haft den effekt, at de har fortrængt andre spørgsmål, såsom at sætte spørgsmål ved AI’s forsyningskæde – den infrastruktur, der er nødvendig for fysisk at bygge, udvikle, træne og implementere et AI-system i frontend. Komponenter som transistorer, lithiumbatterier og GPU’er udgør den fysiske AI-infrastruktur, og de kommer alle med betydelige miljøomkostninger, herunder udvinding af sjældne jordarters mineraler. AI-forsyningskæden omfatter også de enorme energi konsekvenser ved at uddanne LLM’er og forskellige former for udnyttet arbejdskraft på tværs af forsyningskæden, fra minedrift til e-affaldsøkonomier. Ved at fremhæve klimaeffekter signalerer AI Environmental Impacts Act nødvendigheden af, at alle interessenter og politiske beslutningstagere vurderer de miljømæssige eksternaliteter, der er forbundet med AI.
Der er blevet gjort meget ud af AI’s påståede eksistentielle risici – påstande, der ofte drives frem af en “AI-sikkerheds”-kadre af langsigtede tilhængere, der er mere interesserede i spekulative fremtider end nutidige bekymringer. Men de mere åbenlyse eksistentielle risici er her allerede. Global opvarmning og klimakatastrofe påvirker mennesker nu. I betragtning af AI’s potentiale til dramatisk at øge forbruget af stadig mere værdifulde fysiske ressourcer og forårsage negative påvirkninger af samfund og levesteder, er det afgørende at have en grundlæggende forståelse af teknologiens indvirkning på det naturlige miljø. AI Environmental Impacts Act vil lette et tiltrængt opgør med de måder, hvorpå AI står til at omforme verden, som vi kender den, og muliggøre en passende reaktion.
Vi bliver forblændet ved at skulle se på en lovet lys fremtid, som ingen ved om bliver til virkelighed, mens nutidens udfordringer belejligt bliver glemt: “Når magtfulde tech-figurer binder sine arme bag en opmærksomhedsskabende udtalelse, der postulerer AI’s superkræfter, siger de, som Troldmanden fra Oz gjorde, “vær ikke opmærksom på manden bag gardinet.” De siger “kraften ligger i maskinen.” De distraherer os fra den enorme mængde rigdom og magt, de kan få fra AI’s fremkomst – og fra det faktum, at det ikke behøver at være sådan. De vil gerne springe forbi nutidens virkelige arbejde, det med at tackle udfordringerne og kæmpe med de muligheder, der vil forme den kommende verden. I stedet beder de os om at se på fremtiden – men de glemmer, at fremtiden tilhører os alle.“ Jenna Burrell, Director of Research at Data & Society. |
Noter:
Data & Society er en uafhængig nonprofit forskningsorganisation, der mener, at empirisk dokumentation direkte bør informere om udviklingen og styringen af nye teknologier – og at disse teknologier kan og skal være baseret på retfærdighed og menneskelig værdighed. I erkendelse af, at virksomhedernes og de teknologiske platformes koncentrerede, profitdrevne magt ikke vil styre os mod en retfærdig fremtid, vil Data & Society’s arbejde vise kraften hos de mennesker og samfund, der er mest påvirket af de teknologiske forandringer.