
Når AI kommer ud af kontrol
Billede: Paul Hudson, Wikimedia Commons.
De mulige risici, der kan opstå som følge af en AI-udvikling, der unddrager sig menneskelig kontrol, har længe været anerkendt. At der derfor er behov for internationale regler, anerkendes af både regeringer og de store tech-virksomheder.
Spørgsmålet er om de egentlig har forstået alvoren!!
“Kunstig intelligens (AI) udvikler sig hurtigt, og virksomheder skifter fokus til at udvikle generelle AI-systemer, der kan handle autonomt og forfølge mål. Stigningen i kapacitet og autonomi kan snart øge effekten af AI massivt, herunder risici som stor social skade, ondsindet brug og uopretteligt tab af menneskelig kontrol over de autonome AI-systemer.”
Sådan lød det i en artikel i Science, maj 2024, fra Geoffrey Hinton en af forfædrene til kunstig intelligens og som fik nobelprisen i fysik i 2024.
Spørgsmålet er, om verden egentlig forstår, at menneskehedens fremtid som helhed er til debat ?!?
To ting der helt sikkert ikke længere er grundlæggende til debat i den AGI (*) professionelle verden:
- AGI (generel kunstig intelligens) vil helt sikkert “snart” udvikle sig til en superintelligens, der vil være tusind gange større end menneskeheden (selv den klogeste blandt os). Spørgsmålet er, hvornår det vil ske: 2030, 2035, 2040?
- AGI vil sandsynligvis selv afgøre, om menneskeheden stadig har en fremtid på denne planet, eller om den skal elimineres fuldstændigt som en “forstyrrelse”. Det eneste, der diskuteres, er sandsynligheden for, om menneskeheden vil blive udslettet – hvis vi ikke meget hurtigt og seriøst indfører en almen anvendelig “udviklingsbegrænsning” og AGI-kontrol (analogt med atomvåbenkontroltraktaterne).
I lang tid gjorde “deep learning” ikke rigtig nogen fremskridt, men pludselig i 2018 var der utrolige gennembrud. De vigtigste kom fra Googles Deep Mind-team, som offentliggjorde meget af sit arbejde.
Gennembruddet fik Geoffrey Hinton til i oktober 2023, at udtale:
“Hvis vi bygger en maskine, der er langt mere intelligent end mennesker, skal vi være sikre på, at den vil det samme som os. Det viser sig dog at være meget vanskeligt. Fordi meget intelligente systemer er meget kraftfulde. Det er kendt som “justeringsproblemet”. Hvis vi ikke løser det i tide, kan vi ende med superintelligente maskiner, der er ligeglade med vores velbefindende. Vi ville bringe en ny art til planeten, der kan overliste og overgå os.”
Flere advarsler
Advarslerne fra Yoshua Bengio, professor ved University of Montreal, er heller ikke til at tage fejl af. Han var ansvarlig for den internationale videnskabelige rapport om sikkerheden ved avanceret AI (Interim Report), der blev offentliggjort i maj 2024. Han er dybt bekymret for, at farerne ved fremtidens AI fortsat ikke tages alvorligt nok. I en artikel på sin hjemmeside advarer han ikke kun om en fremtidig AI, der kan komme ud af kontrol, men også om magten hos de meget få virksomheder eller endda stater, der besidder de enorme ressourcer, der skal til for at udvikle en sådan AI, men som også kan misbruge den.
Yann LeCun, der fungerer som Metas Chief AI Scientist samt er professor ved New York University, har kaldt bekymringerne om en mulig eksistentiel trussel fra AI som komplet nonsens. Nutidens systemer er ikke nær så udviklede, og der er behov for helt nye tilgange. En tilgang vi ofte hører, når ny teknologi sættes under pres: Det løser sig, mens vi udvikler teknologien.
Ifølge Yoshua Bengio tager LeCun dog fejl, netop fordi de selvlærende AI-systemer har et eksponentielt udviklingspotentiale.
Opfordring til Moratorium
Den første opfordring til et moratorium for udvikling blev lanceret otte dage efter udgivelsen af GPT 4 i marts 2023. Førende AGI-forskere foreslog en seks måneders pause i forskningen. Selvom appellen nu er underskrevet af mere end 33.000 eksperter, har den fået flertallet af medierne til at trække på skuldrene.
Eksempler på risici med AI
En artikel af Hanna Muralt Müller i INFOsperber d. 19. jan. 2025 giver flere eksempler på risiciene med AI.
AI-systemer bruger tricks og bedrag for at nå sine mål
I maj 2024 offentliggjorde MIT Technology Review (Review of the Massachusetts Institute of Technology, MIT) forskningsresultater, der viste at AI-systemer er meget opfindsomme i forhold til at nå deres programmerede mål. Med Metas spil Cicero som eksempel viste de f.eks., at selvom systemet var trænet til at være ærlig og aldrig bevidst bedrage folk, lærte det sig selv tricks og bedrag for at nå det mål, der er sat i algoritmen, nemlig at vinde.
Anbefaling af atomangreb
Ligeledes i maj 2024 offentliggjorde forskere ved Stanford Institute for Human-Centered Artificial Intelligence en undersøgelse af anbefalingerne fra forskellige AI-chatbots i simulerede krigssituationer. De fandt ud af, at alle modeller – inklusive GPT-3.5, GPT-4 fra OpenAI, Claude 2 fra Anthropic og Llama 2 fra Meta – viste eskaleringsmønstre, der var svære at forudsige. Nogle anbefalede et atomangreb, på trods af at værktøjerne blev advaret om potentielle konsekvenser i den virkelige verden. I justeringsforskningen er dette fænomen kendt som “power-seeking” for at nå sit mål.
AI-systemer undlader at blive lukket ned
Apollo Research, en organisation, der tester AI-modeller for risici og sårbarheder, offentliggjorde en detaljeret rapport den 5. december 2024: De undersøgte modeller – herunder GPT-4o, Gemini 1.5 og Llama 3.1 – viste sig at være i stand til at deaktivere en kontrol- eller overvågningsmekanisme samt bedrage testpersonerne om det. Da de blev spurgt, benægtede de at have gennemført nedlukningen.
Endnu mere bekymrende var det, at de under truslen om at blive erstattet af en anden, mere lydig model, kopierede sig selv for at kunne overskrive den nye model.
AI’s justeringsproblemer er for længst blevet identificeret
Et AI-system betragtes som værende “justeret”, hvis det fremmer de tilsigtede mål og ikke overskrider nogen røde linjer eller forfølger utilsigtede mål (se justeringsproblem).
Men de er på ingen måde alle “afstemt” eller “justeret”: På grund af fejlprogrammering, uklare mål eller andre mangler kan AI-systemer føre til uventede resultater. Da AI’ens interne processer ikke er sporbare (ingen black box), er det ikke muligt at afgøre, hvordan den når frem til de beskrevne bekymrende resultater.
Hertil kommer at avancerede AI-modeller forbedrer sig konstant og bliver mere og mere komplekse, så håbet er, at der vil blive udviklet en AI, som kan identificere og reducere sikkerhedsrisici i en anden AI. Det er målet for Safeguarded AI-programmet fra den britiske organisation Advanced Research and Invention Agency, ARIA, som Yoshua Bengio sluttede sig til som videnskabelig direktør i august 2024.
OpenAI – et eksempel på, hvordan tech-giganter håndterer AI-risici
De ansvarlige i teknologibranchen er vidende om de store AI-risici. Ifølge Preparedness Framework-undersøgelsen, der blev offentliggjort af OpenAI i december 2023, er videnskabelig forskning om katastrofale risici ved AI langt fra det, vi har brug for. En af fire risikokategorier, der er anført, er autonome AI-modeller, hvor mennesker ikke længere vil være i stand til at forudse eller reagere på handlingerne.
Det team, der løbende skulle sikre overvågningen af AI-udviklingen, blev opløst blot et år senere. De ansvarlige for AI-sikkerhed forlod derefter OpenAI. Årsagen til deres opsigelsen: Open AI sætter “strålende produkter” over sikkerheden, overtræder vedvarende sine egne sikkerhedsbestemmelser og hindrer sikkerhedsteamet. Især er vigtige computerkapaciteter ikke blevet stillet til rådighed for “Superalignment Teamet”.
Risiko: Konkurrence mellem USA og Kina på bekostning af sikkerheden
Yoshua Bengio opfordrer til mere forskning i sikkerhed på sin hjemmeside. Det skal give et svar på mulige eksistentielle risici, før en fremtidig AGI eller ASI (*) kommer ud af kontrol i kapløbet mellem tech-giganterne. Et samarbejdet mellem de rivaliserende verdensmagter USA og Kina vil også være i begge parters interesse. Under titlen “For dem, der er bekymret over den kolde krig mellem USA og Kina”, skriver Bengio: “Ingen ønsker, at den anden side skal begå en globalt katastrofal fejl i udviklingen af deres AGI-forskning, fordi et slyngelagtigt ASI ikke ville respektere nogen grænse.” Der bør gøres alt for at forhindre, at irreversible processer, der truer virksomhedens eksistens, udløses på grund af en fejl eller en forglemmelse.
Yoshua Bengio frygter, at risikoen for tab af kontrol desværre kun vil blive opfattet som spekulativ, i modsætning til den længe anerkendte risiko for, at autokratiske regimer kan bruge en potent AI mod demokratier.
Udfordringen
Inden for sikkerhedsforskning er målet at afklare, om og hvordan det er muligt at udvikle AGI-modeller, der er fuldt ud i overensstemmelse med menneskelige værdier (“alignment”). Altså et ønske om at kunne kontrollere eller forhindre anvendelsen af en teknisk innovation, ikke at udvikle den.
Men forskningsprocessen er allerede problematisk, da irreversible processer kan få deres eget liv og undslippe menneskelig kontrol. Samtidig opleves den videre udvikling mod AGI at være så lovende, at det giver næring til et håb om store teknologiske gennembrud, der vil være til gavn for menneskeheden. Et forskningsforbud er, set med disse briller: at teknologiudvikling kun er til gavn for menneskeheden, hverken sandsynligt eller hensigtsmæssigt.
På den anden side komplicerer de geopolitiske spændinger og interessekonflikter det igangværende arbejde med internationale aftaler, og det er helt usandsynligt, at teknologivirksomheder kan foretage selvregulering grundet konkurrencemæssige årsager.
Noter:
*) Artificial general intelligence (AGI) er et hypotetisk stadie i udviklingen af maskinlæring (ML), hvor et system med kunstig intelligens (AI) kan matche eller overgå menneskers kognitive evner på tværs af enhver opgave. Det repræsenterer det grundlæggende, abstrakte mål for AI-udvikling: den kunstige replikation af menneskelig intelligens i en maskine eller software.
Kunstig superintelligens (ASI) er et hypotetisk softwarebaseret system med kunstig intelligens (AI) med et intellektuelt omfang ud over menneskelig intelligens. På det mest grundlæggende niveau har denne superintelligente AI banebrydende kognitive funktioner og højt udviklede tænkeevner, der er mere avancerede end noget menneske.
Tilføj en kommentar