Vil generativ AI have langsigtede fordele?

Foto: Rolf van RootUnsplash

I begyndelsen af 2023 lovede Sam Altman og hans AI-boostere, at chatbots ville ændre verden til det bedre. De ville være vores læger og lærere samt blive vores assistenter til alle mulige opgaver.

Det kniber med dokumentationen for disse påstande og det ligner mere en masse bullshit, som mange forudså dengang.

Alligevel er vores digitaliseringsminister mest bekymret for, om “vi kommer bag om dansen.”

Danmark var og er pænt med i hypet om AI

Digitaliseringsstyrelsens hjemmeside kan man læse om, hvordan AI giver mulighed for vækst, velstand og offentlig service:

Danmark har fået en national strategi for kunstig intelligens, der skal sikre, at Danmark går forrest med ansvarlig udvikling og anvendelse af kunstig intelligens – til gavn for den enkelte borger, virksomheder og samfundet. Kunstig intelligens rummer store muligheder for at skabe vækst, velstand og offentlig service i verdensklasse.” (1)

Kraka og Deloitte gør os f.eks. opmærksom på, at al den snak om AI og klimakonsekvenser skal vi ikke hoppe på, for det er mere sandsynligt at AI vil gavne klimaet:

I debatten om AI fylder bekymringen for, at AI kan være en udfordring for klimaet, fordi brugen af AI, ikke mindst generativ AI, kræver et betydeligt strømforbrug. I denne analyse argumenterer vi for, at risikoen for, at brugen af AI i Danmark fører til øgede udledninger, er lille. Omvendt giver brugen af AI reelle muligheder for at reducere udledningerne ved at optimere eksisterende systemer og ved at bidrage til udviklingen af nye, grønne teknologier.

Signaturprojekter med kunstig intelligens i kommuner og regioner

I forbindelse med aftalen kommunernes og regionernes økonomi for 2020 blev der oprettet en investeringsfond, der skulle støtte afprøvning af nye teknologier i den offentlige sektor. For som digitaliseringsstyrelsen skriver:

“Anvendelsen af kunstig intelligens i det offentlige kan bidrage til at løfte vores velfærd, sundhedsbehandling og understøtte den grønne omstilling. Investeringsfonden har derfor fra 2020-2022 støttet i alt 40 signaturprojekter, der skal afprøve anvendelsen af kunstig intelligens i den offentlige sektor. De enkelte projekter er aftalt mellem regeringen, KL og Danske Regioner i forbindelse med de årlige økonomiaftaler.
Projekterne skal give konkrete erfaringer med anvendelse af kunstig intelligens på velfærdsområderne, klimaområdet og administrationsområdet.


I årene 2020-2022 fik de stort opslåede AI-signaturprojekter, tildelt i alt 187 mio. kroner, men de fleste af de i alt 40 projekter måtte lukke og slukke uden konkrete resultater, nogle af projekterne var ulovlige, nogle kom aldrig til at virke, og andre blev lukket, før de overhovedet kom i gang.

Den nye digitaliseringsminister: Mest bekymret for, om vi kommer bag om dansen!

Den nye digitaliseringsminister Caroline Stage (M) har varslet en såkaldt strategisk vision for AI i den offentlige sektor, som skal lande i løbet af efteråret 2024. Radar spurgte hende, om hun ville tage teten op efter sin forgænger, Marie Bjerre, som bl.a. mente, at kommunerne skal benytte sig af kunstig intelligens i sagsbehandlingen, når det skal afgøres, hvorvidt et udsat barn skal tvangsfjernes. Til det svarede hun:

“Jeg tror, det er for tidligt at sige, hvad vi kan og ikke kan bruge AI til på langt sigt. Det er vigtigt på følsomme områder som sagsbehandling, i særdeleshed med børn, at der også er mennesker inde over, så nogen kan kvalitetssikre de beslutninger, der bliver taget.” Ministeren tilføjede, at hun “faktisk er mere bekymret for, at vi kommer bag om dansen, end de problemer, der også kan være med copyright eller den offentlige retssikkerhed”.

I forhold til børneunderretningssager kan der nævnes tre danske projekter, hvor man har forsøgt at bruge AI på børneunderretningssager: Gladsaxemodellen, Underretninger i Fokus og signaturprojektet Risikovurdering af underretninger. Alle tre projekter måtte lukke, fordi de både viste sig uvirksomme og sandsynligvis ulovlige.

AI er ikke tryllestøv

På sin blog Disconnect spørger Paris Marx den 8. sept. 2024, om hvordan det nu er med AI’s langsigtede fordele og kommer med nogle tankevækkende eksempler

AI i forbindelse med uddannelse: Forskere ved University of Pennsylvania ville se, om ChatGPT virkelig forbedrede elevernes matematiske færdigheder. I en undersøgelse af tyrkiske gymnasieelever fandt de, at eleverne brugte chatbotten som en krykke, hvilket betød at i stedet for at forbedre resultaterne var konklusionen, at ChatGPT kunne skade elevernes læring.

I forbindelse med en test gav forskerne nogle studerende adgang til ChatGPT, mens andre forberedte sig uden denne mulighed. I løsningen af spørgsmålene til en øvelsestesten svarede de studerende, der brugte ChatGPT, 48 % mere korrekt, men da det var tid til at tage den egentlige test uden brug af ChatGPT, klarede de sig 17 % dårligere end de elever, der aldrig havde brugt en chatbot. En tredje gruppe fik en version af ChatGPT, som kun gav hints i stedet for svar. Selvom gruppen havde besvaret 127 % flere af øvelsesopgaverne korrekt, klarede de sig ikke bedre ved selve testen end de elever, der slet ikke brugte en chatbot.

AI indenfor medicin: Ifølge Paris Marx er et af de mest almindelige eksempler indenfor AI-implementering (og ikke kun den generative variant) i sundhedsvæsenet i forbindelse med kræft- og røntgenscreeninger. En nylig undersøgelse af automatiseringsbias sætter spørgsmålstegn ved det. To radiologer vurderer typisk et mammografi for at afgøre, om en patient har brystkræft. I undersøgelsen blev det andet sæt øjne erstattet af en AI-assistent – og forskerne havde sikret sig, at AI ville give et forkert svar enkelte af gangene. Forskerne fandt, at radiologerne endte med at sætte så stor lid til systemets svar, at deres nøjagtighed blev meget dårligere som følge heraf. Nøjagtigheden af uerfarne og moderat erfarne radiologer faldt fra omkring 80 % til omkring 22 %, når AI gav et forkert resultat, og selv hos meget erfarne radiologer faldt deres nøjagtighed fra 80 % til 45 %. Ikke særlig betryggende.

AI som assistenter: Måske er AI gode til nogle nicheopgaver, men helt klart ikke til alt. En analyse udført af Amazon for Securities and Investments Commission, virksomhedsregulatoren i Australien, viste, at generative AI-modeller var dårligere end mennesker til at opsummere dokumenter på alle tænkelige måder. I en test til en parlamentarisk undersøgelse af revisions- og konsulentfirmaer viste testen, at de generative AI-værktøjer endda kan skabe mere arbejde til mennesker. Det viste sig, at AI-resuméerne ofte savnede afvejning, nuancer og kontekst; herunder ukorrekte oplysninger eller glemte relevante oplysninger; og nogle gange blev der fokuseret på supplerende oplysninger eller indsat irrelevant information.

Eva Grønbjerg Christensen skriver i en artikel, “The Hidden Risks of AI in Sustainability Reporting”, at “i en tid, hvor kunstig intelligens ser ud til at tilbyde løsninger til enhver forretningsudfordring, er det fristende at henvende sig til chatbots og AI-assistenter for at få hjælp til komplekse rapporteringsopgaver vedr. bæredygtighed. Men når det kommer til kritiske områder som Corporate Sustainability Reporting Directive (CSRD) og krav til miljø, sociale forhold og ledelse (ESG), kan det være et farligt spil at stole på AI. Her er grunden til, at menneskelig ekspertise forbliver uerstattelig på dette område.”:

For selvom AI-chatbots kan behandle enorme mængder information, mangler de: 1) Erfaringer fra den virkelige verden inden for bæredygtighedspraksis 2) Nuanceret forståelse af regulatorisk hensigt 3) Evnen til at fortolke tvetydige retningslinjer.

Hun slutter sin artikel af med at skrive: “At stole på AI til disse kritiske opgaver er beslægtet med selvdiagnosticering via en medicinsk chatbot – det kan virke praktisk, men potentialet for alvorlige fejl er alt for stort.”

Det er derfor heller ingen overraskelse, som Paris Marx skriver i sit indlæg, at Federal Reserve Bank of New York for nylig offentliggjorde en undersøgelse, der viste, at det ikke var mange af de virksomheder, der havde indført AI, som faktisk havde skåret ned på antallet af ansatte som følge heraf.

Automatiseringsbias

AI kan ikke forudsige individers livsudfald og adfærd, og at det er noget nær umuligt for en algoritme at forstå menneskers faktiske livsomstændigheder. Og selv når modellerne ‘blot’ er beslutningsstøttende og ikke beslutningstagende, så er der overhængende fare for såkaldt automatiseringsbias. Dvs. at mennesker er tilbøjelige til at favorisere maskiners forslag, selv når de strider mod sund fornuft og faglig viden.

Et eksempel er fra en vuggestue i Jylland, hvor et toårigt barn bankede sit hoved ned i gulvet. Vuggestuens pædagoger blev bekymrede for den toårige kunne gå fra at være meget aktiv til slet ikke at kunne kontaktes. Der blev sendt en underretning til kommunens børneafdeling, hvad de ikke vidste var, at den toårige blev en del af et eksperiment. Kunstig intelligens skulle hjælpe socialrådgiverne med at træffe de svære beslutninger i velfærdssamfundet.

På børneafdelingen vurderede socialrådgiveren, der modtog vuggestuens underretning, at barnets risikoscore var 9, mens algoritmen mente at der blot var tale om en risikoscore på 1. Socialrådgiveren undrede sig for, hvordan kunne der være så stor forskel på hendes og algoritmens vurdering? 

Scoren, som den kunstige intelligens nåede frem til, prægede nogle socialrådgiveres vurdering af indberetningernes alvor. Det skete i sager, der kan resultere i det måske største indgreb fra statens side – eller det omvendte: en beslutning om ikke at gribe ind. I dette tilfælde blev algoritmens vurdering tilsidesat.

Artiklen fra Zetland beretter, at den score, som den kunstige intelligens når frem til, præger nogle socialrådgiveres vurdering af indberetningernes alvor. Så når kunstig intelligens præger myndigheders beslutninger, er risikoen derfor, at det virker selvforstærkende, hvor den kunstige intelligens’ forudsigelser bliver en selvopfyldende profeti.

AI’s energi- og klimaaftryk

Grit Munk, som er digitaliseringspolitisk chef i IDA, Ingeniørforeningen i Danmark, forsøger i en artikel i Altinget halvhjertet med en kritik af regeringens en målsætning om, at AI kan frigive, hvad der svarer til 10.000 årsværk i den offentlige sektor gennem effektivisering. Regeringen vil nemlig nedsætte en AI-taskforce, (2) som skal anvise vejen til, hvordan det danske samfund skal blive ”verdensførende i anvendelse af kunstig intelligens” og samtidig øger kvaliteten i den offentlige sektor.

Grit Munk får dog sat ord på en af de helt store AI-udfordringer nemlig at de store AI-modeller og de tilknyttede datacentre bruger så enorme mængder af energi og vand, at både Googles og Microsofts CO2-udledninger er vokset ukontrollabelt de seneste år og en udfordring for deres mål om at blive CO2-neutrale.  Hun skriver dog ikke at AI bør sættes på stand by, men skal hendes refleksioner tages seriøst er det det, der skal til:

AI er desværre ikke tryllestøv, og derfor betaler det sig at overveje, om AI er den rette metode til at løse det konkrete problem. Og når AI er den rigtige løsning, at overveje, hvordan AI-systemerne udvikles, driftes og anvendes med respekt for borgere, virksomheder og ikke mindst klimaet. 

Hertil burde miljøet været tilføjet.

Udviklingen er eksplosiv: Raghavendra Selvan, der er adjunkt på Datalogisk Institut på Københavns Universitet, fortæller i en artikel i Teknisk Landsforbund, at hvis man koger forbruget for ChatGPT ned til en enkelt prompt, så koster det i gennemsnit 0,19 kWh, hver gang man stiller ChatGPT et spørgsmål, eller omtrent det samme som at oplade sin mobil­telefon 40 gange. Med flere og flere brugere af ChatGPT, samt andre sprogmodeller, billed-, musik- og talegeneratorer, er udviklingen eksplosiv. Blandt de forskellige former for AI er det særligt generativ AI, programmer, der er designet til at generere nye data, der vokser eksplosivt både i udbredelse og strømforbrug.

I artiklen fremgår det, at i 2030 forventer Energistyrelsen ­et årligt elforbrug fra data­centre i Danmark på ca. 7 TWh. hvilket udgør ca. 17% af det forventede, samlede elforbrug i 2030.

Det anslås, at klimaaftrykket fra alle former for informations­teknologi bidrager med omkring tre procent af den samlede klimabelastning – eller omtrent det samme som verdens flytrafik.

”Det er kun begyndelsen. Dels vokser antallet af tjenester og brugere, men samtidig producerer AI selv store mængder af data, som man igen skal bruge computerkraft på at analysere. En selvforstærkende effekt.”

OpenAI har selv anslået, at den regnekraft, der skal bruges til at træne AI, bliver fordoblet på lidt over tre måneder. En vild eksponentiel stigning sammen­lignet med IT-branchens traditionelle tese om, at computeres beregningskraft ville blive fordoblet hvert andet år. I samme periode vil regnekraften til AI altså blive syvdoblet.

Øget vandforbrug til afkøling. Udover et stigende strømforbrug skal der bruges store mængder vand til afkøling. Forskere fra University of California har påvist, at eksempelvis Microsofts vandforbrug fra 2021 til 2022 steg med 34 procent til knap 6,5 milliarder liter vand. For Googles vedkommende steg vandforbruget med 20 procent. I netop den periode blev de to AI-assistenter Bing og Bard trænet med viden, information og billeder.

For at generere en e-mail på 100 ord med generativ AI vil kræve omkring tre flasker a ½ liter. Det lyder måske ikke af meget, men det løber hurtigt op, hvis den enkelte bruger systemet flere gange om ugen eller måske flere gange om dagen. Og det er brugere over hele verdenen.

Noter:

1) “Strategien skal skabe gode rammer for, at virksomheder, forskere og offentlige myndigheder kan udnytte potentialet i kunstig intelligens med ansvarlighed i højsædet.
Strategien har fire sigtelinjer:

  1. Danmark skal have et fælles etisk grundlag for kunstig intelligens med mennesket i centrum
  2. Danske forskere skal forske i og udvikle kunstig intelligens
  3. Danske virksomheder skal opnå vækst ved at udvikle og anvende kunstig intelligens
  4. Den offentlige sektor skal anvende kunstig intelligens til at tilbyde service i verdensklasse

Styrelsen nævner dog, at brugen af kunstig intelligens medfører en række udfordringer, som det er nødvendigt at tage hånd om. Fx en række etiske spørgsmål om åbenhed og gennemsigtighed.

2) Taskforcens opgave bliver at identificere og håndtere barrierer for udnyttelsen af kunstig intelligens mv. samt at drive en tværgående indsats for at fremme udrulning af strukturelle kunstige intelligens-løsninger i stor skala i hele den offentlige sektor.
Et at de første tiltag for taskforcen bliver at offentliggøre et samlet målbillede for brugen af kunstig intelligens i den offentlige sektor. Dette målbillede vil indeholde specifikke mål for, hvordan taskforcens arbejde skal påvirke sektoren.
Taskforcen skal desuden sætte rammerne for en ansvarlig og balanceret udbredelse af kunstig intelligens i den offentlige sektor med respekt for borgere og virksomheders rettigheder.
I forbindelse med nedsættelsen af taskforcen er der enighed mellem Regeringen og KL om, at en digital transformation af den offentlige sektor vil kræve investeringer på kort sigt mod på længere sigt at give gevinster i form af frigjorte ressourcer og øget kvalitet.

Læs mere her:

Please follow and like us:

Vi spammer ikke! Læs vores privatlivspolitik, hvis du vil vide mere.