Vil generativ AI have langsigtede fordele?

Foto: Rolf van RootUnsplash

I begyndelsen af 2023 lovede Sam Altman og hans AI-boostere, at chatbots ville ændre verden til det bedre. De ville være vores læger og lærere samt blive vores assistenter til alle mulige opgaver. Det kniber med dokumentationen for disse påstande og det ligner mere en masse bullshit, som mange forudså dengang.

Det skriver Paris Marx på sin blog Disconnect den 8. sept. 2024, hvor han også spørger, hvordan det nu er med AI’s langsigtede fordele?

Danmark var og er pænt med i hypet om AI

Digitaliseringsstyrelsens hjemmeside kan man læse om, hvordan AI giver mulighed for vækst, velstand og offentlig service:

Danmark har fået en national strategi for kunstig intelligens, der skal sikre, at Danmark går forrest med ansvarlig udvikling og anvendelse af kunstig intelligens – til gavn for den enkelte borger, virksomheder og samfundet. Kunstig intelligens rummer store muligheder for at skabe vækst, velstand og offentlig service i verdensklasse.” (1)

Kraka og Deloitte gør os f.eks. opmærksom på, at al den snak om AI og klimakonsekvenser skal vi ikke hoppe på, for det er mere sandsynligt at AI vil gavne klimaet:

I debatten om AI fylder bekymringen for, at AI kan være en udfordring for klimaet, fordi brugen af AI, ikke mindst generativ AI, kræver et betydeligt strømforbrug. I denne analyse argumenterer vi for, at risikoen for, at brugen af AI i Danmark fører til øgede udledninger, er lille. Omvendt giver brugen af AI reelle muligheder for at reducere udledningerne ved at optimere eksisterende systemer og ved at bidrage til udviklingen af nye, grønne teknologier.

Men AI er ikke tryllestøv

AI i forbindelse med uddannelse: Forskere ved University of Pennsylvania ville se, om ChatGPT virkelig forbedrede elevernes matematiske færdigheder. I en undersøgelse af tyrkiske gymnasieelever fandt de, at eleverne brugte chatbotten som en krykke, hvilket betød at i stedet for at forbedre resultaterne var konklusionen, at ChatGPT kunne skade elevernes læring.

I forbindelse med en test gav forskerne nogle studerende adgang til ChatGPT, mens andre forberedte sig uden denne mulighed. I løsningen af spørgsmålene til en øvelsestesten svarede de studerende, der brugte ChatGPT, 48 % mere korrekt, men da det var tid til at tage den egentlige test uden brug af ChatGPT, klarede de sig 17 % dårligere end de elever, der aldrig havde brugt en chatbot. En tredje gruppe fik en version af ChatGPT, som kun gav hints i stedet for svar. Selvom gruppen havde besvaret 127 % flere af øvelsesopgaverne korrekt, klarede de sig ikke bedre ved selve testen end de elever, der slet ikke brugte en chatbot.

AI indenfor medicin: Ifølge Paris Marx er et af de mest almindelige eksempler indenfor AI-implementering (og ikke kun den generative variant) i sundhedsvæsenet i forbindelse med kræft- og røntgenscreeninger. En nylig undersøgelse af automatiseringsbias sætter spørgsmålstegn ved det. To radiologer vurderer typisk et mammografi for at afgøre, om en patient har brystkræft. I undersøgelsen blev det andet sæt øjne erstattet af en AI-assistent – og forskerne havde sikret sig, at AI ville give et forkert svar enkelte af gangene. Forskerne fandt, at radiologerne endte med at sætte så stor lid til systemets svar, at deres nøjagtighed blev meget dårligere som følge heraf. Nøjagtigheden af uerfarne og moderat erfarne radiologer faldt fra omkring 80 % til omkring 22 %, når AI gav et forkert resultat, og selv hos meget erfarne radiologer faldt deres nøjagtighed fra 80 % til 45 %. Ikke særlig betryggende.

AI som assistenter: Måske er AI gode til nogle nicheopgaver, men helt klart ikke til alt. En analyse udført af Amazon for Securities and Investments Commission, virksomhedsregulatoren i Australien, viste, at generative AI-modeller var dårligere end mennesker til at opsummere dokumenter på alle tænkelige måder. I en test til en parlamentarisk undersøgelse af revisions- og konsulentfirmaer viste testen, at de generative AI-værktøjer endda kan skabe mere arbejde til mennesker. Det viste sig, at AI-resuméerne ofte savnede afvejning, nuancer og kontekst; herunder ukorrekte oplysninger eller glemte relevante oplysninger; og nogle gange blev der fokuseret på supplerende oplysninger eller indsat irrelevant information.

Eva Grønbjerg Christensen skriver i en artikel, “The Hidden Risks of AI in Sustainability Reporting”, at “i en tid, hvor kunstig intelligens ser ud til at tilbyde løsninger til enhver forretningsudfordring, er det fristende at henvende sig til chatbots og AI-assistenter for at få hjælp til komplekse rapporteringsopgaver vedr. bæredygtighed. Men når det kommer til kritiske områder som Corporate Sustainability Reporting Directive (CSRD) og krav til miljø, sociale forhold og ledelse (ESG), kan det være et farligt spil at stole på AI. Her er grunden til, at menneskelig ekspertise forbliver uerstattelig på dette område.”:

For selvom AI-chatbots kan behandle enorme mængder information, mangler de: 1) Erfaringer fra den virkelige verden inden for bæredygtighedspraksis 2) Nuanceret forståelse af regulatorisk hensigt 3) Evnen til at fortolke tvetydige retningslinjer.

Hun slutter sin artikel af med at skrive: “At stole på AI til disse kritiske opgaver er beslægtet med selvdiagnosticering via en medicinsk chatbot – det kan virke praktisk, men potentialet for alvorlige fejl er alt for stort.”

Det er derfor heller ingen overraskelse, som Paris Marx skriver i sit indlæg, at Federal Reserve Bank of New York for nylig offentliggjorde en undersøgelse, der viste, at det ikke var mange af de virksomheder, der havde indført AI, som faktisk havde skåret ned på antallet af ansatte som følge heraf.

AI’s energi- og klimaaftryk

Grit Munk, som er digitaliseringspolitisk chef i IDA, Ingeniørforeningen i Danmark, forsøger i en artikel i Altinget halvhjertet med en kritik af regeringens en målsætning om, at AI kan frigive, hvad der svarer til 10.000 årsværk i den offentlige sektor gennem effektivisering. Regeringen vil nemlig nedsætte en AI-taskforce, (2) som skal anvise vejen til, hvordan det danske samfund skal blive ”verdensførende i anvendelse af kunstig intelligens” og samtidig øger kvaliteten i den offentlige sektor.

Grit Munk får dog sat ord på en af de helt store AI-udfordringer nemlig at de store AI-modeller og de tilknyttede datacentre bruger så enorme mængder af energi og vand, at både Googles og Microsofts CO2-udledninger er vokset ukontrollabelt de seneste år og en udfordring for deres mål om at blive CO2-neutrale.  Hun skriver dog ikke at AI bør sættes på stand by, men skal hendes refleksioner tages seriøst er det det, der skal til:

AI er desværre ikke tryllestøv, og derfor betaler det sig at overveje, om AI er den rette metode til at løse det konkrete problem. Og når AI er den rigtige løsning, at overveje, hvordan AI-systemerne udvikles, driftes og anvendes med respekt for borgere, virksomheder og ikke mindst klimaet. 

Udviklingen er eksplosiv: Raghavendra Selvan, der er adjunkt på Datalogisk Institut på Københavns Universitet, fortæller i en artikel i Teknisk Landsforbund, at hvis man koger forbruget for ChatGPT ned til en enkelt prompt, så koster det i gennemsnit 0,19 kWh, hver gang man stiller ChatGPT et spørgsmål, eller omtrent det samme som at oplade sin mobil­telefon 40 gange. Med flere og flere brugere af ChatGPT, samt andre sprogmodeller, billed-, musik- og talegeneratorer, er udviklingen eksplosiv. Blandt de forskellige former for AI er det særligt generativ AI, programmer, der er designet til at generere nye data, der vokser eksplosivt både i udbredelse og strømforbrug.

I artiklen fremgår det, at i 2030 forventer Energistyrelsen ­et årligt elforbrug fra data­centre i Danmark på ca. 7 TWh. hvilket udgør ca. 17% af det forventede, samlede elforbrug i 2030.

Det anslås, at klimaaftrykket fra alle former for informations­teknologi bidrager med omkring tre procent af den samlede klimabelastning – eller omtrent det samme som verdens flytrafik.

”Det er kun begyndelsen. Dels vokser antallet af tjenester og brugere, men samtidig producerer AI selv store mængder af data, som man igen skal bruge computerkraft på at analysere. En selvforstærkende effekt.”

OpenAI har selv anslået, at den regnekraft, der skal bruges til at træne AI, bliver fordoblet på lidt over tre måneder. En vild eksponentiel stigning sammen­lignet med IT-branchens traditionelle tese om, at computeres beregningskraft ville blive fordoblet hvert andet år. I samme periode vil regnekraften til AI altså blive syvdoblet.

Øget vandforbrug til afkøling. Udover et stigende strømforbrug skal der bruges store mængder vand til afkøling. Forskere fra University of California har påvist, at eksempelvis Microsofts vandforbrug fra 2021 til 2022 steg med 34 procent til knap 6,5 milliarder liter vand. For Googles vedkommende steg vandforbruget med 20 procent. I netop den periode blev de to AI-assistenter Bing og Bard trænet med viden, information og billeder.

Noter:

1) “Strategien skal skabe gode rammer for, at virksomheder, forskere og offentlige myndigheder kan udnytte potentialet i kunstig intelligens med ansvarlighed i højsædet.
Strategien har fire sigtelinjer:

  1. Danmark skal have et fælles etisk grundlag for kunstig intelligens med mennesket i centrum
  2. Danske forskere skal forske i og udvikle kunstig intelligens
  3. Danske virksomheder skal opnå vækst ved at udvikle og anvende kunstig intelligens
  4. Den offentlige sektor skal anvende kunstig intelligens til at tilbyde service i verdensklasse

Styrelsen nævner dog, at brugen af kunstig intelligens medfører en række udfordringer, som det er nødvendigt at tage hånd om. Fx en række etiske spørgsmål om åbenhed og gennemsigtighed.

2) Taskforcens opgave bliver at identificere og håndtere barrierer for udnyttelsen af kunstig intelligens mv. samt at drive en tværgående indsats for at fremme udrulning af strukturelle kunstige intelligens-løsninger i stor skala i hele den offentlige sektor.
Et at de første tiltag for taskforcen bliver at offentliggøre et samlet målbillede for brugen af kunstig intelligens i den offentlige sektor. Dette målbillede vil indeholde specifikke mål for, hvordan taskforcens arbejde skal påvirke sektoren.
Taskforcen skal desuden sætte rammerne for en ansvarlig og balanceret udbredelse af kunstig intelligens i den offentlige sektor med respekt for borgere og virksomheders rettigheder.
I forbindelse med nedsættelsen af taskforcen er der enighed mellem Regeringen og KL om, at en digital transformation af den offentlige sektor vil kræve investeringer på kort sigt mod på længere sigt at give gevinster i form af frigjorte ressourcer og øget kvalitet.

Læs mere her:

Please follow and like us:

Vi spammer ikke! Læs vores privatlivspolitik, hvis du vil vide mere.