AI-masseovervågning ved OL i Paris fortsætter efter at legene er sluttet

Foto: Simon ElliottPixabay

OL i Paris i 2024 får kæmpe opmærksomhed, når tusindvis af atleter og deres hjælpere samt hundredtusinder af besøgende fra hele verden samles i Frankrig.

Men samtidig vil både offentlige og private virksomheder bruge avancerede AI-værktøjer og anden overvågningsteknologi til at udføre gennemgribende og vedvarende overvågning både før, under og efter OL legene i Paris 2024.

Argumentet er sikkerhed

I år har Frankrig været særlig bekymret for de olympiske sikkerhedskapaciteter og truslerne omkring offentlige sportsbegivenheder.

Den franske regering, har derfor hånd i hånd med den private teknologisektor, udnyttet dette legitime behov for øget sikkerhed som begrundelsen for at implementere teknologisk avancerede overvågnings- og dataindsamlingsværktøjer.

De olympiske lege med dens mange internationale deltagere samt tilskuere udgør en så betydelig sikkerhedsrisiko, at både myndigheder og kritikere har beskrevet OL som “verdens største sikkerhedsoperationer der ikke skyldes en krig.”

Den kontroversielle brug af eksperimentel AI-videoovervågning, har været så omfattende, at Frankrig har måttet ændre sine love for at gøre overvågningen lovlig. Bl.a. har Premierministerens kontor forhandlet et midlertidigt klassificeret dekret, for at give regeringen mulighed for at øge de traditionelle, skjulte overvågnings- og informationsindsamlingsværktøjer i løbet af legene. Værktøjerne omfatter aflytning; indsamling af geolokalisering, kommunikation og computerdata; samt indfange større mængder visuelle data og lyddata.

Det har ifølge en artikel i The Conservation fra den 17. juli fået kritikerne til at hævde, at Frankrig bruger OL som et overvågningsgreb, og at regeringen vil bruge denne “ekstraordinære” begrundelse for overvågning til at normalisere en samfundsdækkende statsovervågning.

Mordforsøget på tidligere præsident Donald Trump den 13. juli 2024 har naturligt ikke mindsket denne legitimitet.

AI-drevet masseovervågning

Ifølge artiklen i The Conservation er den AI-software, som er i brug, designet til at notere visse begivenheder som f.eks. ændringer i størrelsen af en folkemængde og dens bevægelse, efterladte genstande, tilstedeværelse eller brug af våben, et lig på jorden, røg eller flammer og visse trafikovertrædelser.

Målet er, at overvågningssystemerne i realtid registrerer sådanne begivenheder og alarmerer sikkerhedspersonalet, hvilket kan lyde som en logisk og fornuftig brug af teknologi.

De reelle spørgsmål om privatlivets fred og juraen kommer i forbindelse med, hvordan disse systemer fungerer og bliver brugt. Hvor meget og hvilke typer data skal indsamles og analyseres for at markere disse hændelser? Hvad er systemernes træningsdata, deres fejlprocenter samt dokumentation for bias eller unøjagtighed? Hvad sker der med dataene, efter at de er indsamlet, og hvem har adgang til dem?

Ved at give private virksomheder adgang til de tusindvis af videokameraer, der allerede er placeret i hele Frankrig, og til at udnytte og koordinere jernbaneselskabernes og transportoperatørernes overvågningskapacitet samt tillade brugen af droner med kameraer tillader Frankrig virksomhederne lovligt at teste og træne AI-software på sine borgere og de tilrejsende.

Legaliseret masseovervågning

Både behovet for og praksis med regeringsovervågning ved OL er ikke noget nyt. Ved vinter-OL 2022 i Beijing var sikkerheds- og privatlivsbekymringerne så høje, at FBI opfordrede “alle atleter” til at efterlade personlige mobiltelefoner derhjemme og kun bruge en engangstelefon, mens de var i Kina på grund af det ekstreme niveau af regeringsovervågning.

Som medlem af EU skal Frankrig dog følge EU-lovgivningen og EU’s generelle databeskyttelsesforordning er en af de stærkeste databeskyttelseslove i verden, og EU’s AI Act fører an i bestræbelserne på at regulere skadelig brug af AI-teknologier, skriver The Conservation.

Som forberedelse til OL vedtog Frankrig i 2023 lov nr. 2023-380 for at skabe en retlig ramme for OL i 2024.

Loven omfatter den kontroversielle artikel 7, en bestemmelse, der giver fransk retshåndhævelse og dets teknologileverandører mulighed for at eksperimentere med intelligent videoovervågning før, under og efter OL i 2024, og artikel 10, der specifikt tillader brugen af AI-software til at gennemgå video- og kamerafeeds.

Lovene gør Frankrig til det første EU-land, der legaliserer et så vidtrækkende AI-drevet overvågningssystem.

Både forskere, civilsamfundsgrupper og borgerrettighedsforkæmpere har påpeget, at artiklerne er i strid med den generelle databeskyttelsesforordning og EU’s bestræbelser på at regulere AI. De har gjort gældende, at artikel 7 specifikt tilsidesætter bestemmelserne i den generelle forordning om databeskyttelse om beskyttelse af biometriske data.

Franske embedsmænd og repræsentanter for teknologivirksomheder har modsat udtalt, at AI-softwaren kan nå sine mål om at identificere og markere disse specifikke typer af begivenheder uden at identificere personer eller komme på kant med den generelle databeskyttelsesforordnings begrænsninger omkring behandling af biometriske data.

Hertil påpeger de europæiske borgerrettighedsorganisationer, at hvis formålet med algoritmerne og AI-drevne kameraer er at opdage specifikke mistænkelige begivenheder i det offentlige rum, vil systemerne nødvendigvis fange og analysere fysiologiske træk og adfærd” hos mennesker der befinder sig i disse rum.

Dermed indsamles og behandles biometriske data som kropspositioner, gang, bevægelser, fagter og udseende, hvormed Frankrig overtræder den generelle databeskyttelsesforordning.

Den AI-drevne sikkerhed har en pris

Den algoritmiske overvågning bruges mere og mere og giver regeringer og deres tekniske samarbejdspartnere meget mere data, end mennesker alene kan levere. Men de AI-aktiverede overvågningssystemer er dårligt regulerede og er kun i yderst ringe udstrækning underlagt uafhængige test. Når først dataene er indsamlet, er potentialet for yderligere dataanalyse og krænkelser af privatlivet enormt.

Note: Den oprindelige artikel i The Conservation er skrevet af Anne Toomey McKenna som er medformand for for Institute for Electrical and Electronics Engineers (IEEE)-USA’s Artificial Intelligence Policy Committee (AIPC), som involverer fag- og uddannelsesrelateret interaktion med US Senat og House Congressional personale og Congressional AI Caucus. McKenna har modtaget finansiering fra National Security Agency til udvikling af juridisk undervisningsmateriale om cyberlovgivning og finansiering fra The National Police Foundation sammen med US Department of Justice-COPS-afdelingen til juridisk analyse vedrørende brugen af ​​droner i politiet.

Læs mere her:

Please follow and like us:

Vi spammer ikke! Læs vores privatlivspolitik, hvis du vil vide mere.