“Også militært er AI notorisk forudindtaget”

Foto: Ukrainsk FPV-drone med fiberoptisk kommunikationskanal, АрміяІнформ, Wikimedia Commons.

Ukraine er et eksperimentelt testområde for militære AI-systemer, men de autonome våbensystemer træffer i stigende grad uafhængige beslutninger.

I et interview med netzpolitik.org forklarer teknologiforsker Jens Hälterlein konsekvenserne samt hvilken regulering, der er brug for.

Artiklen, skrevet af Erika Dornbusch, blev udgivet på netzpolitik.org den 1. juli 2025 under Creative Commons-licens.

Droner, der styres af såkaldt kunstig intelligens (AI), får stadig større betydning. Især Ukraine-krigen fungerer som et testområde for nye militære AI-applikationer.

De muliggør ikke kun teknologiske fremskridt, men rejser også grundlæggende etiske og geopolitiske spørgsmål.

Jens Hälterlein er forsker i teknologi og videnskab ved University of Paderborn. Han forsker i regulering af autonome våbensystemer i Meaningful Human Control-projektet.

Et fokus i hans arbejde er på dronesværme og eksisterende tilgange til etisk regulering af AI-baserede militære teknologier. I netzpolitik.org talte Erika Dornbusch med ham om effekterne af AI-applikationer i krig.

netzpolitik.org: I deres forskning beskæftiger de sig intensivt med udvikling og brug af AI i en militær kontekst. Ukraine-krigen bliver i stigende grad beskrevet som et “eksperimentelt område” for militære AI-applikationer. Hvordan ser du på denne udvikling?

Jens Hälterlein: Krigen i Ukraine – som i princippet enhver krig – gør det muligt at afprøve nye militære redskaber under reelle operationelle forhold. En anden fordel ved udviklingen af militære AI-applikationer er, at der genereres store mængder træningsdata på slagmarkerne i Ukraine. De er nødvendige for maskinlæringsprocesser. Det åbner helt nye muligheder. Ukraine blev derfor også omtalt som et “levende laboratorium” for militær AI, dvs. en slags “virkelighedens laboratorium”.

Det er ikke uden grund, at det amerikanske firma Palantir tilbød sit dataanalysesoftware til Ukraine lige i begyndelsen af krigen. Selvom dette software tidligere kun blev brugt til økonomiske og politimæssige analyser, blev det hurtigt et centralt element i det ukrainske militærs beslutningsprocesser.

Data hjælper AI med at bryde igennem

netzpolitik.org: I begyndelsen af Ukraine-krigen spillede AI-systemer tilsyneladende en mere støttende rolle i droner. Fra dit synspunkt er det ved at ændre sig. Kan du forklare de teknologiske fremskridt og deres betydning mere detaljeret?

Jens Hälterlein: I begyndelsen af Ukraine-krigen var de anvendte droner stort set fjernstyrede. AI har kun spillet en rolle i forbindelse med nogle såkaldte “ikke-kritiske” funktioner, for eksempel i betydningen autopilot. Det er tilsyneladende ved at ændre sig i øjeblikket. Både de nystartede ukrainske virksomheders systemer og de vestlige systemer, der anvendes, svarer i stigende grad til det, der i den internationale debat omtales som dødbringende autonome våbensystemer (LAWS). Det refererer til systemer, der kan udføre kritiske funktioner – dvs. målsøgning, udvælgelse af mål og angreb – uden menneskelig indgriben.

De hardwarekomponenter og algoritmer, der bruges i disse våbensystemer, er i princippet ikke nye. Men i lang tid er militær innovation på dette område blevet bremset af mangel på data. Det kan sammenlignes med udviklingen af ansigtsgenkendelsessystemer, som først oplevede et gennembrud på grund af den massive tilgængelighed af mærkede fotos på sociale medier.

netzpolitik.org: Der vides meget mindre om de russiske systemer, såsom den nye variant af Lancet kamikaze-dronen.

Jens Hälterlein: I princippet er vi afhængige af erklæringer fra militæret og våbenproducenterne hos alle krigsførende parter. Og selvfølgelig skal disse tages med et gran salt, uanset om de er vestlige eller ikke-vestlige aktører. Siden krigen har vores information om de russiske systemer imidlertid været endnu mere begrænset end før. Men da en russisk AI eller en russisk AI-baseret kampdrone grundlæggende fungerer på samme måde som en amerikansk eller en tysk, bør den respektive kontekst også være ens. Også på russisk side vil disse våbensystemer derfor sandsynligvis blive mere autonome. Og det er også den påstand, der bruges til at reklamere for den nye model af Lancet-dronen.

Blind tillid

netzpolitik.org: Når militære AI-systemer og autonome våbensystemer testes i en konflikt som Ukraine, rejser det etiske eller politiske spørgsmål. Hvad er disse set fra dit synspunkt?

Jens Hälterlein: Der er mange problemer. På den ene side er militær AI – som enhver AI – notorisk fejlbehæftet og fordomsfuld. Men fejl og fordomme kan her have dødelige konsekvenser. Et system kan f.eks. identificere civile som kombattanter, fordi det fejlfortolker data, eller fordi det overser faktorer, der er relevante for sondringen.

På den anden side truer brugen af meget komplekse systemer med at føre til en spredning af ansvaret. Formelt skal et menneske altid give sit endelige samtykke, hvis drab på mennesker skal finde sted. Operatørerne kan dog ikke i detaljer forstå, hvordan et AI-baseret system genererede sit output. Samtidig kan de ikke undgå at træffe beslutninger på baggrund af det, og som regel under tidspres. Det er en anden grund til, at de kan have en tendens til at stole næsten blindt på systemernes output, hvilket de slet ikke bør gøre, i betragtning af disse systemers modtagelighed for fejl.

Krigsmager AI

netzpolitik.org: En anden risiko er den globale spredning af disse teknologier. Hvor realistisk er det, at flere og flere stater vil bruge autonome våbensystemer i fremtiden – muligvis også i det globale syd?

Jens Hälterlein: Droner er meget billigere end jagerfly. Især små droner med en relativt kort flyvetid og lav nyttelast er ikke dyre. I Ukraine bruges endda kommercielle modeller, der koster et par hundrede euro. De er udstyret med granater og anden ammunition “på en hjemmebaseret måde”.

Det bliver især dyrt, når der udvikles specielle softwarekomponenter. Men selv disse omkostninger kan næppe sammenlignes med de samlede omkostninger ved at udvikle F-35 eller Future Combat Air System. Det må derfor antages, at finansiering vil være en stadig mindre faktor i den globale udbredelse af AI-baserede militære teknologier. Det tyrkiske firma Baykar har for eksempel eksporteret sin AI-kampdrone Bayraktar TB2 ikke kun til Ukraine, men også til adskillige afrikanske og asiatiske lande, hvor den allerede er blevet brugt i flere krige.

Utilstrækkelig regulering

netzpolitik.org: Med hensyn til den politiske regulering af autonome våbensystemer og AI-droner siger De, at vi i stigende grad står over for et fait accompli. Er der overhovedet nogen chance for internationalt bindende regler?

Jens Hälterlein: Desværre ser jeg ikke megen grund til optimisme. Inden for rammerne af FN’s våbenkontrol har der i mere end ti år været bestræbelser på at få bindende regler for LAW – indtil videre uden held. Det skyldes primært, at sådanne regler ikke har interesse for de nationer, der udvikler, implementerer eller har til hensigt at udvikle LAWS i fremtiden. Ud over de militære supermagter USA, Storbritannien, Rusland og Kina er der også tale om militære eksportnationer som Israel, Tyrkiet og Tyskland.

Tyskland har sammen med Frankrig udtalt sig til fordel for et forbud mod såkaldte fuldt autonome våbensystemer. Samtidig skal brugen af såkaldte semi-autonome våbensystemer dog tillades. Hvis det imidlertid er tilstrækkeligt for deres klassificering, at en person i sidste ende skal acceptere systemets output, mener jeg, at denne tilgang er utilstrækkelig af de grunde, jeg har nævnt.

Etik er ingen erstatning for jura

netzpolitik.org: Hvad mener du, der skal ske for at forhindre ukontrolleret spredning og misbrug af sådanne teknologier?

Jens Hälterlein: Desværre har jeg ikke en patentløsning. Der er behov for mere kritiske debatter og inddragelse af civilsamfundet. Desuden skal vi være mere opmærksomme på perspektiverne hos ofrene ved sådanne teknologier. Men i sidste ende vil den nuværende globale polarisering og militarisering sandsynligvis skabe et klima, hvor der ikke er meget plads til våbenkontrol. Vi ser det i øjeblikket inden for regulering af atomvåben.

Det, der bestemt ikke er en tilstrækkelig løsning set fra mit perspektiv, er etik. Der findes nu en hel række militære strategier – især fra vestlige stater – der indeholder en frivillig forpligtelse til det ledende princip om ansvarlig, forklarlig og pålidelig brug af kunstig intelligens. Det er dog fortsat uklart, hvordan etiske principper kan overholdes, implementeres og overvåges i forbindelse med LAWS.

Men frem for alt bør etik ikke træde i stedet for loven. Men det er præcis den fare, der findes. Vi ser i øjeblikket en delegitimering af etablerede internationale retsnormer fra vestlige staters side. Samtidig henviser de til begreber som den “regelbaserede internationale orden”, som kan fyldes med indhold afhængigt af de involverede interesser. Det er i denne sammenhæng, at vi også bør forstå retorikken om “Ansvarlig AI i det militære domæne”. Etik har her en befordrende effekt snarere end en begrænsende effekt.

Læs mere her:

Please follow and like us: