En katastrofe, når Danmark udvikler AI uden at have styr på etikken
Trods Danmarks store digitale ambitioner står det langt tilbage, når det kommer til de etiske dimensioner af AI, sådan lyder det fra filosof og lektor Laura Haaber Ihle, som forsker i AI-etik ved Harvard University og Northeastern University.
Akademikerbladet havde den 17. oktober 2023 et interview med Laura Haaber Ihle, hvor hun uddyber sine synspunkter og bekymringer. Hele interviewet finder du HER.
Illustration: Gerd Altmann fra Pixabay.
“Danmark har en ambition om at være et af verdens mest digitaliserede lande. Men vi er langt tilbage når det kommer til at skabe stabile etiske rammer for vores udvikling og brug af kunstig intelligens. Det virker slet ikke som om, at beslutningstagerne tager den opgave seriøst nok.”
Filosof og lektor Laura Haaber Ihle
Laura Haaber Ihle fortæller, at når hun ser på de danske offentlige AI-projekter, så savner hun, at man systematisk tænker etik ind i designprocessen for at forhindre, at man ikke kommer til at lave noget, som er direkte skadeligt eller etisk uforsvarligt. Når hun spøger ind til, hvilke forholdsregler der er taget, så er bliver der enten svaret ’ingen’ eller nogle ad hoc-løsninger, som f.eks. at der er sendt breve ud til borgerne for at høre deres mening om et projekt. Det er jo fint nok at inddrage borgerne, som hun siger, men man skal jo gøre meget mere end det. “Det er, som om, man slet ikke aner, hvad der bliver diskuteret internationalt omkring AI-etik,” siger hun.
AI er ikke bare AI
En ting er at bruge AI til at finde ud af, hvor der skal anlægges nye parkeringspladser, men det er noget helt andet, hvis AI skal bruges i forbindelse med vurderinger, som f.els. kan føre til tvangsfjernelse af børn – det selv hvis AI’en ikke tager beslutningerne alene, påpeger hun. Hun henviser blandt andet til forskningsprojektet ’Underretninger i Fokus’, der som mål har at udvikle et AI-baseret-værktøj til at hjælpe sagsbehandlere med at analysere indberetninger om børn. Projektet blev i juni 2023 ændret, da der blev rejst tvivl om projektets lovlighed. At ingen på forhånd havde sat spørgsmålstegn ved projektets etik, finder hun ret utroligt.
Firmaerne kommer først når det er gået galt
Hun fortæller at firmaerne sjældent opsøger konsulentbistand, fordi de tænker, at ’vi skal da have noget etik’. Det normale, at de henvender sig, efter at de har været involveret i en eller anden skandale, hvor de f.eks. er ’kommet til’ at videresælge brugernes data til en tredjepart, har haft et kæmpe datalæk, eller at deres systemer har været biased. Først der kommer tanken om at de måske bør have noget etik ind over det der AI, som de bruger.
Algoritmer, gennemsigtighed og etik
Akademikerbladet spørger Laura Haaber Ihle hvad man gør, når mange AI-produkter er selvlærende og udvikler sig løbende. Som regel når de deres konklusioner ved at inkludere enorme mængder data. Dermed er det meget svært for udenforstående at vide, hvad der foregår inde i algoritmens sorte boks.
Transparens er et helt reelt problem, medgiver hun. Det er teknisk svært at lave løsninger, hvor man kigger ind i maskinen og forstår, hvad der sker. Fordi hvis vi kunne forstå, hvordan maskinen arbejder, så kunne vi gøre det selv – og det kan vi ikke. For vi kan ikke have så mange parametre i vores hoveder, og vi kan ikke lave alle de der kæmpe beregninger eller forstå, hvordan en model når til sin konklusion, uddyber hun.
”Man diskuterer tit, hvorvidt teknologier er neutrale. Og det bliver et meget mere indviklet spørgsmål, fordi en algoritme jo ikke bare er en hammer. Der ligger værdiprioriteringer i AI-teknologi. Så snart du laver en simpel Google-søgning, så tilskriver teknologien en værdi til noget og ikke til noget andet. Det gør en hammer ikke.”
Hvor er den centrale myndighed?
Det et stort problem for Danmark, at der ikke findes en central myndighed, der sikrer, at AI bliver udviklet og udrullet etisk forsvarligt. Det betyder også, siger Laura Haaber Ihle videre, at de etiske overvejelser bliver overdraget til de enkelte offentlige aktører rundt omkring i kommuner og andre offentlige instanser, der udvikler, køber eller bruger kunstig intelligens. Af gode grunde sidder de ikke inde med den nødvendige ekspertise, når det kommer til etikken, og derfor risikerer de også at spilde ressourcer på projekter, der viser sig ikke blot at være uetiske men i visse tilfælde også ulovlige.
Hun foreslår, at Dataetisk Råd omdannes til et ekspertråd, så de super kvalificerede eksperter, der lige nu sidder i sekretariatet, kan sidde i selve rådet og dermed erstatte de af de nuværende, politisk udpegede medlemmer, der ikke nødvendigvis har særlig meget viden om hverken kunstig intelligens eller etik.
Dertil kommer at der skal afsættes udviklingsmidler til at sikre, at når det offentlige skal indkøbe eller udvikle kunstig intelligens, at man fra start til slut er underlagt helt konkrete og stringente etiske governance strukturer, der sikrer kvalitet og sikkerhed for befolkningen.