Offentlig eksponering af “skræmmende” AI-billeder og videoer af seksuelt misbrug af børn stiger

AI-genereret indhold med seksuelt misbrug af børn findes i stigende grad på offentligt tilgængelige områder af internettet, hvilket udsætter endnu flere mennesker for skadelige og forfærdelige billeder.

Mange af billederne og videoerne af børn, der bliver såret og misbrugt, er så realistiske, at de kan være meget svære at skelne fra billeder af rigtige børn og betragtes som kriminelt indhold i britisk lovs øjne, på samme måde som ‘traditionelt’ materiale med seksuelt misbrug af børn ville være1.

Alene i de seneste seks måneder har analytikere hos Internet Watch Foundation set en stigning på 6 % i bekræftede rapporter, der indeholder AI-genereret materiale med seksuelt misbrug af børn, sammenlignet med de foregående 12 måneder2.

Det skriver Internet Watch Foundation (IWF) på deres hjemmeside den 18. okt. 2024.

Internet Watch Foundation, IWF, (*) Europas største hotline, der er dedikeret til at finde og fjerne billeder af seksuelt misbrug af børn fra internettet, advarer om, at næsten alt indhold (99 %)3 blev fundet på offentligt tilgængelige områder af internettet og ikke var skjult på det mørke internet.

De fleste af rapporterne kommer fra medlemmer af offentligheden (78 %)4, som er faldet over de kriminelle billeder på websteder som f.eks. fora eller AI-gallerier. Resten blev fundet af IWF-analytikere gennem proaktiv søgning.

Analytikere siger, at det kan være lige så foruroligende at se AI-genereret indhold af børn, der bliver seksuelt misbrugt, som at se rigtige børn på misbrugsbilleder, hvis en person ikke er forberedt eller trænet til at klare at se sådant materiale.

Noget AI-materiale, der viser seksuelt misbrug af børn, klassificeres som ikke-fotografiske billeder, såsom tegneserier, og anses også for at være skadeligt at se og vurderes derfor af IWF-analytikere1.

IWF sporer, hvor indhold med seksuelt misbrug af børn hostes, så analytikere kan handle for at få det hurtigt fjernet.

Mere end halvdelen af det AI-genererede indhold, der blev fundet i de seneste seks måneder, blev hostet på servere i to lande, Den Russiske Føderation (36 %) og USA (22 %), mens Japan og Holland fulgte efter med henholdsvis 11 % og 8 %5.

Adresser på websider, der indeholder AI-genererede billeder af seksuelt misbrug af børn, uploades til IWF’s URL-liste, som deles med teknologiindustrien for at blokere webstederne og forhindre folk i at få adgang til eller se dem.

AI-billederne er også hashet – givet en særlig unik kode som et digitalt fingeraftryk – og tagget som AI på en hashliste med mere end to millioner billeder, som kan bruges af retshåndhævende myndigheder i deres efterforskninger.

Jeff6, en senior internetindholdsanalytiker hos IWF, fortæller: “Det kriminelle indhold er ikke begrænset til mystiske steder på det mørke net. Næsten alle de rapporter eller URL’er, som vi har behandlet, og som indeholdt AI-genereret materiale, der viser seksuelt misbrug af børn, blev fundet på det gennemsigtige web.

“Jeg synes, det er virkelig skræmmende, da det føles som om, vi er ved et vendepunkt, og potentialet er der for, at organisationer som os selv og politiet kan blive overvældet af hundredvis af nye billeder, hvor vi ikke altid ved, om der er et rigtigt barn, der har brug for hjælp.”

Desværre bliver billeder og videoer af virkelige ofre brugt af gerningsmændene til at generere nogle af billederne, da AI-teknologien gør det muligt at bringe ethvert forestillet scenarie til live.

IWF-analytikere fortsætter med at se billeder af eksisterende børneofre brugt i nye AI-billeder og nye ‘deepfake’ videoer af misbrug, som tidligere rapporteret af IWF7. Mange af disse er pornografiske videoer for voksne, som er blevet manipuleret med AI-værktøjer.

Gerningsmændene bruger også AI til at forvandle kendte “softcore”-sæt af billeder af seksuelt misbrug af børn, som er mindre eksplicitte, til nye, mere ekstreme eksempler på indhold.

Overlevende har fortalt IWF, hvor traumatiserende det er, at billeder af deres misbrug fortsat cirkulerer og bruges online, da det påvirker deres evne til at komme sig og komme videre fra deres lidelser.

Derek Ray-Hill, midlertidig administrerende direktør for IWF, udtaler: “Folk kan ikke gøre sig nogen forestilling om, hvor forfærdelig skade AI-genereret materiale med seksuelt misbrug af børn forårsager, ikke kun for dem, der måtte se det, men for de overlevende, der igen og igen bliver ofre, hver eneste gang billeder og videoer af deres misbrug nådesløst bliver udnyttet til forskruet nydelse for rovdyr online.

“For at skabe det sofistikerede niveau, der ses i AI-billederne, har den anvendte software også været trænet på eksisterende billeder af seksuelt misbrug og videoer af rigtige børneofre, der deles og distribueres på internettet.

“Beskyttelse af børn og forebyggelse af AI-misbrugsbilleder skal prioriteres af lovgivere og teknologiindustrien over enhver tanke om profit. De seneste måneder viser, at dette problem ikke forsvinder, men faktisk bliver værre. Vi har et presserende behov for at bringe lovene op på niveau med den digitale tidsalder og få håndgribelige foranstaltninger på plads, der imødegår potentielle risici.”

Assisterende politimester Becky Riggs, der er leder af efterforskning af børns beskyttelse og misbrug i National Police Chiefs’ Council, fortæller: “Omfanget af seksuelt misbrug og billeder af børn online er skræmmende, og vi ved, at den øgede brug af kunstig intelligens til at generere krænkende billeder udgør en reel trussel mod børn.

“Retshåndhævelsen er forpligtet til at finde og retsforfølge online børnemishandlere, uanset hvor de er. Politiet fortsætter med at arbejde proaktivt for at forfølge lovovertrædere, herunder gennem vores specialiserede undercover-enheder, som forstyrrer børnemishandlere online hver dag, og dette er ikke anderledes for AI-genererede billeder.

“Mens vi vil fortsætte med ubarmhjertigt at forfølge disse rovdyr og beskytte ofrene, skal vi se handling fra teknologivirksomheder for at gøre mere under Online Safety Act så deres platforme bliver mere sikre steder for børn og unge. Det omfatter og sætter skarpt fokus på de virksomheder, der er ansvarlige for udviklingen af brugen af kunstig intelligens og de sikkerhedsforanstaltninger, der er nødvendige for at forhindre, at den anvendes i stor skala, som vi nu ser.

“Vi fortsætter med at arbejde tæt sammen med National Crime Agency, regeringen og industrien for at udnytte teknologi, der vil hjælpe os med at bekæmpe seksuelt misbrug og udnyttelse af børn online.”

Noter:

*) Internet Watch Foundation (IWT) er en uafhængig, non-profit velgørende organisation, der arbejder i partnerskab med en række andre organisationer fra den private, offentlige og NGO-sektor. IWT blev oprettet i 1996 af internetindustrien for at tilbyde en internethotline for offentligheden og it-professionelle til at rapportere potentielt kriminelt onlineindhold. IWT ønsker at stoppe ved at søge efter, fjerne samt forhindrer billeder af seksuelt misbrug af børn online. Gennem hotline og rapporteringsportaler er det muligt at rapportere mistanke om ulovlige billeder og videoer. Rapporteringsportaler er tilpassede websider, hvor folk sikkert kan rapportere mistænkte billeder og videoer af seksuelt misbrug af børn.

1) AI-genereret materiale med seksuelt misbrug af børn i Storbritannien falder ind under to forskellige love:

• Loven om beskyttelse af børn af 1978 (som ændret ved Criminal Justice and Public Order Act 1994). Denne lov kriminaliserer optagelse, distribution og besiddelse af et “uanstændigt fotografi eller pseudofotografi af et barn”.
• Loven om retsmedicinere og retfærdighed 2009. Denne lov kriminaliserer besiddelse af “et forbudt billede af et barn”. Disse er ikke-fotografiske – generelt tegnefilm, tegninger, animationer eller lignende.

 2) Fra april 2023 til marts 2024 blev der behandlet 70 rapporter om AI CSAM. Fra april 2024 til udgangen af september 2024 blev der behandlet 74 indberetninger.

3) Fra april 2024 til slutningen af september 2024 var 58 rapporter om AI-genereret CSAM fra IWF fra offentligheden. IWF-analytikere handlede på 16 rapporter gennem proaktivt arbejde.

4) Ud af 74 rapporter fra april 2024 til slutningen af september 2024 blev 73 fundet på det klare web.

5) Globale hostingtal fra april 2024 til slutningen af september 2024.

4. april til 24. september 
LandAntal websteder med AI CSAM/forbudte billeder
Rusland27 
USA16 
Japan 
Holland
Sverige
Tyskland
Frankrig
Ukraine 
Hongkong
Indonesien
Letland
Onion URL (skjult tjeneste)
Luxembourg 
Total 74 

6) Jeff er et pseudonym, der bruges til at beskytte analytikerens privatliv.

7) Hvad har ændret sig i AI CSAM-landskabet: Opdatering af AI CSAM-rapporten, Internet Watch Foundation, juli 2024: https://admin.iwf.org.uk/media/nadlcb1z/iwf-ai-csam-report_update-public-jul24v13.pdf 

Læs mere her:

Please follow and like us:

Vi spammer ikke! Læs vores privatlivspolitik, hvis du vil vide mere.