AI-genererede ansigter

Mennesker finder AI-genererede ansigter, mere troværdige end de ægte ansigter

En ny undersøgelse offentliggjort i Proceedings of the National Academy of Sciences USA giver et mål for, hvor langt teknologien er nået frem. Resultaterne tyder på, at rigtige mennesker nemt kan falde for maskingenererede ansigter – og endda fortolke dem som mere troværdige end den ægte vare. (1) “Vi fandt ud af, at ikke kun syntetiske ansigter er meget realistiske, de anses for at være mere troværdige end rigtige ansigter,” siger studiemedforfatter Hany Farid, professor ved University of California, Berkeley. Resultatet vækker bekymring fordi, “disse ansigter kan være yderst effektive, når de bruges til kriminelle formål.”

“Vi er virkelig gået ind i en verden af ​​farlige deepfakes,” siger Piotr Didyk, en lektor ved University of Italian Switzerland i Lugano, som ikke var involveret i undersøgelsen. De værktøjer, der bruges til at generere undersøgelsens stillbilleder, er allerede almindeligt tilgængelige. Og selvom det er mere udfordrende at skabe lige så sofistikeret videoer, vil værktøjerne sandsynligvis snart være inden for almindelig rækkevidde, ifølge Didyk.

De syntetiske ansigter
De syntetiske ansigter til undersøgelsen blev udviklet i frem og tilbage interaktioner mellem to neurale netværk, eksempler på en type kendt som ’generative adversarial networks’. Et af netværkene, kaldet en generator, producerede en udviklende serie af syntetiske ansigter som en studerende arbejdede sig gradvist gennem grove udkast. Det andet netværk, kendt som en diskriminator, trænede på rigtige billeder og derefter vurderede det genererede output ved at sammenligne det med data på faktiske ansigter.

Generatoren begyndte øvelsen med tilfældige pixels. Med feedback fra diskriminatoren frembragte den gradvist mere realistiske menneskelignende ansigter. I sidste ende var diskriminatoren ikke i stand til at skelne et rigtigt ansigt fra et falsk.

Netværkene trænede på en række rigtige billeder, der repræsenterer sorte, østasiatiske, sydasiatiske og hvide ansigter af både mænd og kvinder, i modsætning til den mere almindelige brug af hvide mænds ansigter i tidligere forskning.

Kan forfalskningerne opdages
Efter at have kompileret 400 rigtige ansigter matchet med 400 syntetiske versioner, bad forskerne 315 personer om at skelne de ægte fra de falske blandt et udvalg på 128 af billederne. En anden gruppe på 219 deltagere fik nogen træning og feedback om, hvordan man opdager forfalskninger, mens de forsøgte at skelne ansigterne. Endelig vurderede en tredje gruppe på 223 deltagere hver et udvalg på 128 af billederne for troværdighed på en skala fra en (meget utroværdig) til syv (meget troværdig).

Den første gruppe klarede sig ikke bedre end ved at kaste plat og krone til at sortere rigtige ansigter fra de falske, med en gennemsnitlig nøjagtighed på 48,2 procent. Den anden gruppe formåede ikke at vise dramatiske forbedringer og opnåede kun omkring 59 procent, selv med feedback om disse deltageres valg. Gruppevurderingens troværdighed gav de syntetiske ansigter en lidt højere gennemsnitsvurdering på 4,82 sammenlignet med 4,48 for rigtige mennesker.

Forskerne havde ikke forventet disse resultater. “Vi troede oprindeligt, at de syntetiske ansigter ville være mindre troværdige end de rigtige ansigter,” siger studiemedforfatteren Sophie Nightingale.

Undersøgelsesdeltagere identificerede i høj grad nogle af forfalskninger som værende falske. “Vi siger ikke, at hvert enkelt billede, der genereres, ikke kan skelnes fra et rigtigt ansigt, men et betydeligt antal af dem kan ikke,” siger Nightingale.

Deepfakes som en hastigt stigende trussel
Fundet tilføjer bekymringer om tilgængeligheden af ​​teknologi, der gør det muligt for stort set alle at skabe vildledende stillbilleder. “Enhver kan skabe syntetisk indhold uden specialiseret kendskab til Photoshop eller CGI,” siger Nightingale. En anden bekymring er, at sådanne fund vil skabe det indtryk, at deepfakes vil blive fuldstændig uopdagede, siger Wael Abd-Almageed, stiftende direktør for Visual Intelligence and Multimedia Analytics Laboratory ved University of Southern California, som ikke var involveret i undersøgelsen. Han bekymrer sig om, hvorvidt forskerne vil opgive at forsøge at udvikle modforanstaltninger til deepfakes, han betragter det at holde tempoet i opdagelse af den stigende realisme som “simpelthen endnu et retsmedicinsk problem.”

“Den samtale, der ikke sker ofte nok i forskningsmiljøet, er, hvordan man starter proaktivt med at forbedre disse detektionsværktøjer,” siger Sam Gregory, direktør for programstrategi og innovation hos WITNESS, en menneskerettighedsorganisation, der bl.a. fokuserer på måder at skelne mellem deepfakes. At lave værktøjer til detektion er vigtigt, fordi folk har en tendens til at overvurdere deres evne til at opdage forfalskninger, siger han, og “offentligheden skal altid forstå, når de bliver brugt ondsindet.”

Gregory, som ikke var involveret i undersøgelsen, påpeger, at forfatterne direkte adresserer disse problemer. De fremhæver tre mulige løsninger, herunder at skabe holdbare vandmærker til de genererede billeder, “som at indlejre fingeraftryk, så du kan se, at det kom fra en generativ proces,” siger han.

Forfatterne af undersøgelsen slutter med en skarp konklusion efter at have understreget, at vildledende brug af deepfakes fortsat vil udgøre en trussel: “Vi opfordrer derfor dem, der udvikler disse teknologier, til at overveje, om de tilknyttede risici er større end deres fordele,” skriver de. “Hvis ja, så fraråder vi udviklingen af ​​teknologien, simpelthen fordi det er muligt.”

Kilder:
1) https://www.pnas.org/content/119/8/e2120481119
Se også videoenTo Make a Deepfake’:
”Hvad kan den tidligere amerikanske præsident Richard Nixon overhovedet lære os om kunstig intelligens i dag og fremtiden for misinformation online? Ikke noget. Den rigtige Nixon døde for 26 år siden. Men en AI-genereret lighed med ham kaster nyt lys over en hurtigt udviklende teknologi med betydelige implikationer, både kreative og destruktive, for vores nuværende digitale informationsøkosystem.”

Original artiklen fra Scientific American finder du her:
https://www.scientificamerican.com/article/humans-find-ai-generated-faces-more-trustworthy-than-the-real-thing/
Se mere her:
Når elektronikken bliver til våben:
https://nejtil5g.dk/info-materiale/naar-elektronikken-bliver-til-vaaben/
Internet of Bodies – IoB:
https://nejtil5g.dk/dokumenter/internet-of-bodies-iob/
Om internet of Things se mere her:
https://nejtil5g.dk/5g/internet-of-things-iot/

Please follow and like us:
close

Vi spammer ikke! Læs vores privatlivspolitik, hvis du vil vide mere.