AI: Derfor er det en rigtig dårlig idé at installere ‘robotdommere’ i retssalene

Foto: Rai Singh Uriarte, Unsplash

Science fictions fremtidsvisioner omfatter mange versioner af kunstig intelligens (AI), men relativt få eksempler, hvor software erstatter menneskelige dommere. For en gangs skyld ser den virkelige verden ud til at ændre sig på måder, der ikke forudsiges i historier.

I februar bad en colombiansk dommer ChatGPT om vejledning i, hvordan man afgør en forsikringssag. På nogenlunde samme tid brugte en pakistansk dommer ChatGPT til at bekræfte sine afgørelser i to separate sager. Der er også rapporter om dommere i Indien og Bolivia, der har søgt råd fra ChatGPT.

Det er uofficielle eksperimenter, men nogle systematiske reformbestræbelser involverer AI. I Kina rådgives og bistås dommere af AI, og denne udvikling vil sandsynligvis fortsætte. I en tale for nylig foreslog Master of the Rolls, Sir Geoffrey Vos – den næsthøjeste dommer i England og Wales – at efterhånden som retssystemet i denne jurisdiktion digitaliseres, kan AI bruges til at afgøre nogle “mindre intenst personlige tvister”, såsom kommercielle sager.

Artiklen af Rónán Kennedy, Lektor ved Galway Universitet er oprindeliog udgivet på The Conversation den 10. juli 2023.

AI er egentlig ikke så smart

Det kan i første omgang synes at være en god idé at bruge AI. Loven formodes at blive anvendt upartisk og objektivt, “uden frygt eller favorisering”. Nogle vil sige, hvilken bedre måde at opnå dette på end at bruge et computerprogram? AI har ikke brug for en frokostpause, kan ikke bestikkes og ønsker ikke en lønstigning. AI-retfærdighed kan anvendes hurtigere og mere effektivt. Vil vi derfor se “robotdommere” i retssalene i fremtiden?

Der er fire hovedårsager til, at dette måske ikke er en god idé. Den første er, at AI i praksis generelt fungerer som et ekspertsystem eller som et maskinlæringssystem. Ekspertsystemer involverer kodning af regler i en model af beslutninger og deres konsekvenser – kaldet et beslutningstræ – i software. Disse havde deres storhedstid i loven i 1980’erne. De viste sig dog i sidste ende ude af stand til at levere gode resultater i stor skala.

Maskinindlæring er en form for AI, der forbedrer det, den gør over tid. Det er ofte ret kraftfuldt, men ikke mere end et meget kvalificeret gæt. En styrke er, at den kan finde sammenhænge og mønstre i data, som vi ikke har kapacitet til at beregne. En af dens svagheder er imidlertid, at den fejler på måder, der er forskellige fra de måder, folk gør, og når til konklusioner, der er tydeligvis forkerte.

I et bemærkelsesværdigt eksempel blev en AI narret til at genkende en skildpadde som en pistol. Ansigtsgenkendelse har ofte problemer med korrekt identifikation af kvinder, børn og dem med mørk hud. Så det er muligt, at AI også fejlagtigt kunne placere nogen på et gerningssted, der ikke var der. Det ville være vanskeligt at have tillid til et retssystem, der kommer med resultater, der er klart forkerte, men også meget vanskelige at gennemgå, da ræsonnementet bag maskinlæring ikke er gennemsigtigt. Det har overgået vores evne til at forstå dets indre funktion – et fænomen kendt som “black box-problemet”.

Når AI bruges i juridiske processer, og det mislykkes, kan konsekvenserne være alvorlige. Store sprogmodeller, teknologien bag AI-chatbots som ChatGPT, er kendt for at skrive tekst, der er fuldstændig usand. Det er kendt som en AI-hallucination, selvom det indebærer, at softwaren tænker snarere end statistisk bestemmer, hvad det næste ord i dets output skal være.

I år kom det frem, at en advokat fra New York havde brugt ChatGPT til at skrive indlæg til en domstol, kun for at opdage, at den citerede sager, der ikke eksisterede. Det indikerer, at disse typer værktøjer endnu ikke er i stand til at erstatte advokater og faktisk måske aldrig bliver det.

Historiske skævheder

For det andet er maskinlæringssystemer afhængige af historiske data. I kriminalitet og jura vil disse ofte indeholde bias og fordomme. Marginaliserede samfund vil ofte figurere mere i registre over anholdelser og domfældelser, så et AI-system kan drage den uberettigede konklusion, at folk med en bestemt baggrund er mere tilbøjelige til at være skyldige.

Et fremtrædende eksempel på dette er Compas-systemet, en AI-algoritme, der bruges af amerikanske dommere til at træffe beslutninger om kaution og domfældelse. En undersøgelse hævdede, at den genererede “falske positive” for farvede mennesker og “falske negativer” for hvide mennesker. Med andre ord antydede den, at farvede mennesker ville begå nye lovovertrædelser, når de faktisk ikke gjorde det, og foreslog, at hvide mennesker ikke ville begå nye lovovertrædelser, når de gjorde det. Udvikleren af systemet udfordrer dog disse påstande.

For det tredje er det ikke klart, at juridiske regler pålideligt kan konverteres til softwareregler. Enkeltpersoner vil fortolke den samme regel på forskellige måder. Da 52 programmører fik til opgave at automatisere håndhævelsen af hastighedsgrænser, udstedte de programmer, de skrev, meget forskellige antal bøder til de samme prøvedata.

De enkelte dommere kan have forskellige fortolkninger af loven, men de gør det offentligt og de kan omstødes ved appel. Dette skulle reducere mængden af variation i domme over tid – i det mindste i teorien. Men hvis en programmør er for streng eller for lempelig i deres implementering af en regel, kan det være meget svært at opdage og rette.

Automatiserede regeringssystemer fejler i et omfang og en hastighed, som er meget svær at komme sig fra. Den hollandske regering brugte et automatiseret system (SyRI) til at opdage svindel med ydelser, som fejlagtigt anklagede mange familier og ødelagde liv i processen.

Den australske “Online Compliance Intervention” -ordning bruges til automatisk at vurdere gæld fra modtagere af sociale velfærdsydelser. Det er almindeligt kendt som “Robodebt”. Ordningen overskred sine grænser, påvirkede hundredtusinder af mennesker negativt og var genstand for en kongelig kommission i Australien. (Kongelige kommissioner er undersøgelser af sager af offentlig betydning i Australien.)

Endelig er det at dømme ikke det eneste, en dommer laver. De har mange andre roller i retssystemet, såsom at styre en retssal, en sagsmængde og et team af medarbejdere, og dem ville det være endnu sværere at erstatte med softwareprogrammer.

Læs mere her:

Please follow and like us:

Vi spammer ikke! Læs vores privatlivspolitik, hvis du vil vide mere.

Tilføj en kommentar