‘Den sociale orden kan kollapse’ i AI-æraen, ifølge to førende japanske virksomheder
Foto: Emiliano Vittoriosi, Unsplash
Japans største teleselskab Nippon Telegraph and Phone (NTT) og landets største avis Yomiuri Shimbun Group Holdings opfordrer i et AI-manifest til hurtig lovgivning for at begrænse generativ kunstig intelligens, da demokrati og den sociale orden kan kollapse, hvis ikke AI kontrolleres.
Kombineret med en lov, der blev vedtaget i marts af Europa-Parlamentet, som begrænser nogle anvendelser af AI, peger manifestet på en stigende bekymring blandt amerikanske samarbejdspartnere over de AI-programmer, som USA-baserede virksomheder har stået i spidsen for at udvikle.
Det japanske manifest
Det japanske manifest, indtager et generelt skeptisk syn på teknologien. AI-værktøjer er allerede begyndt at skade den menneskelige værdighed, fordi mange af disse værktøjer er designet til at fange brugernes opmærksomhed uden hensyn til moral eller nøjagtighed.
Medmindre AI bliver begrænset advarer manifestet om at, “i værste fald kan demokrati og den social orden kollapse, hvilket resulterer i krige.”
For at forhindre sådanne katastrofale scenarier foreslår de japanske virksomheder, at der straks træffes foranstaltninger, herunder implementering af lovgivning til beskyttelse af valg og national sikkerhed mod potentielle AI-trusler. Det er i tråd med en global tendens til at regulere AI, hvor Den Europæiske Union for nylig har vedtaget en lov, der kræver, at AI-modeller skal gennemgå sikkerhedsevalueringer og pålægges rapportering af alvorlige hændelser. Det opfordrer også til at forbyde brugen af AI følelsesgenkendelse i skoler og på arbejdspladser.
Biden-administrationen intensiverer også tilsynet og påberåbte sig føderale nødbeføjelser i oktober sidste år for at tvinge store AI-virksomheder til at underrette regeringen, når de udvikler systemer, der udgør en alvorlig risiko for den nationale sikkerhed. USA, Storbritannien og Japan har hver især oprettet regeringsledede AI-sikkerhedsinstitutter for at hjælpe med at udvikle AI-retningslinjer.
Virksomhedernes bekymring drejer sig ikke kun om de teknologiske aspekter af AI, men også om den indvirkning, den har på den offentlige debat. De har undersøgt implikationerne af generativ AI siden sidste år, sammen med en forskningsgruppe ledet af eksperter fra Keio University.
En Yomiuri-leder fra december rejste bekymringer over strømmen af AI-produkter fra tech-virksomheder med base i USA. Lederen fremhævede de potentielle risici forbundet med AI-modeller, herunder udbredelsen af diskriminerende ideer eller undervisning i våbenviden. Med fremkomsten af avancerede deepfake-videoer, der manipulerer politikeres taler, er der et voksende behov for at adressere disse risici hurtigt.
AI-industrien har oplevet en hastig vækst i de seneste år og forventes at fortsætte med at udvide sig i fremtiden. Ifølge en rapport fra MarketsandMarkets forventes AI-markedet at nå 190,61 milliarder dollars i 2025 med en årlig vækstrate på 36,6% fra 2019 til 2025. Denne vækst understøttes af den stigende efterspørgsel efter AI-teknologier på tværs af forskellige sektorer, herunder sundhedsvæsen, finans, detailhandel og produktion.
Udfordringer og problemer relateret til AI-industrien.
En væsentlig udfordring er de etiske og sociale implikationer af AI-teknologi, som NTT og Yomiuri Shimbun Group Holdings har påpeget. Den ubeskårne udvikling af AI, hvis den ikke reguleres korrekt, kan føre til forskellige negative konsekvenser, såsom krænkelser af privatlivet, bias i AI-algoritmer og automatiserede jobopgaver.
En anden udfordring er manglen på gennemsigtighed og forklarlighed i AI-modeller. Når AI-systemer bliver mere komplekse og afhængige af maskinlæringsalgoritmer, bliver det svært at forstå, hvordan AI når frem til sine beslutninger. Denne mangel på gennemsigtighed rejser bekymringer om ansvarlighed og tillid til AI-systemer, især inden for kritiske områder som sundhedsvæsen og finanssektoren.
Hertil kommer, hvordan AI påvirker beskæftigelsen. Selvom AI har potentiale til at automatisere repetitive opgaver og forbedre effektiviteten, rejser det også bekymringer i forhold til nedlæggelser af jobs. Det er afgørende at finde en balance mellem at udnytte AI-teknologier for produktivitetsgevinster og sikre arbejdstagernes trivsel og levebrød.
Eksempler på udfordringer ved AI teknologien
Googles Gemini AI-program har forårsaget et raseri for at fremstille billedresultater, der viser vikinger som værende sorte og andre historisk unøjagtige afbildninger. Brugere rapporterer, at programmets billedsøgning med kunstig intelligens har en “wake” bias indlagt, som i høj grad begrænser visningen af billeder af hvide mennesker. Se videoen her:
Herunder nogle eksempler. Se flere HER
En person søgte efter typiske billeder af australiere, amerikanere, tyskere og briter:
Det er pinligt svært at få Google Gemini til at anerkende, at hvide mennesker eksisterer. pic.twitter.com/4lkhD7p5nR— Deedy (@debarghya_das) February 20, 2024
Jeg bad Gemini om at lave billeder af amerikanske revolutionære soldater. pic.twitter.com/eqLgaBgz0U— Ian Miles Cheong (@stillgray) February 21, 2024
Vil børn i årtier i fremtiden vokse op og tro, at vikinger så sådan ud?
Googles Gemini AI kan ikke forstå kulturel og historisk kontekst og skal spille ‘diversitetskortet’, herunder at ændre hvide mennesker (især mænd) til enhver anden etnisk gruppe eller køn. pic.twitter.com/vXzLQUP0Ai— Jean Easter (@JeanGardenLuv) February 21, 2024
Det er, hvad der sker, når en “wake” begynder at lege med AI-modeller…Googles Gemini forsøger at være inkluderende. Elsker mangfoldigheden….lol pic.twitter.com/CZiv5N8bM6— Ghost-e/acc (@CannaFirm) February 19, 2024