Kunstig intelligens – AI

Læs mere her:
Kunstig intelligens og kybernetik – nejtil5g.dk (Dokumentarfilm)
Reelle trusler og muligheder fra den virtuelle verden – nejtil5g.dk
6G, Internet of Bodies: Globalisterne vil ikke stoppe med at hacke mennesker – nejtil5g.dk
SMART politik – del 1 – nejtil5g.dk
Hjernechip skaber nyt menneske – nejtil5g.dk
Mikrochip implanteret i hånden? Er det noget at bekymre sig om? – nejtil5g.dk
World Economic Forums totalitære rædselsvision – nejtil5g.dk
Big Brother holder øje med dig – nejtil5g.dk
AI-genererede ansigter – nejtil5g.dk

Indhold:

AI
– Den digitale revolution er slået fejl
– Mennesket har datapunkter maskiner aldrig vil forstå
AI – Chatbot
– En chatbot er ikke en “separat juridisk enhed”
– Harvard-professor Shoshana Zuboff advarer
– De kritiske spørgsmål er centrale
Børn og AI
– Snapchat har lanceret ”My AI” en såkaldt ’AI-ven’ til børn og unge
– Skal chatbots træne skoleelever og andre i dumhed
Tankekontrol i Metaverset
AI staten

AI

Den digitale revolution er slået fejl 

Fordelene ved internettet udhules og AI-boomet fremskynder blot dets forsvinden.

“Den digitale revolution er slået fejl. Det oprindelige løfte var et bedrag for at lægge grundlaget for endnu en værdiskabende virksomhedsordning, men de fordele, der kom ud af det, er blevet så dybt udhulet af kommercielle imperativer, at ulemperne langt opvejer de resterende forløsende egenskaber – og det bliver kun værre hver eneste dag som de generative AI-værktøjer får lov til at oversvømme nettet med syntetisk materiale.

Tiden for at reparere kanterne er forbi, og som en Fugl Føniks, der rejser sig fra asken, er det eneste håb, der findes i dag, at forsøge at rive det bygningsværk ned, som den teknologiske industri har opført, og bygge et nyt som grundlag for en anden slags internet, der ikke er forgiftet af kravet om at producere obskønt og stadigt stigende overskud for at fylde de overfyldte pengekasser hos et snævert segment af befolkningen.

Der var mange netværk før internettet, og der kan være nye netværk, der følger det. Vi behøver ikke at være låst fast i den digitale dystopi, Silicon Valley har skabt i et netværk, hvor der engang var så meget håb om noget helt andet. Den igangværende erosion ser allerede ud til at få folk til at flygte ved at droppe smartphones (eller i det mindste forsøge at reducere, hvor meget de bruger dem), trække sig tilbage fra det rod, som de sociale medier er blevet til, og droppe den algoritmiske suppe af streamingtjenester.

Personlig afvisning er en velkommen udvikling, men i takt med at nettet falder, må vi overveje, hvordan et bedre alternativ kunne se ud, og det politiske projekt det ville passe ind i. Vi kan heller ikke falde for ethvert forsøg på at udforme en liberal “uafhængighedserklæring” som en virkelig frigørende fremtid for alle.”

Sådan lyder konklusionen på Paris Marx’s artikel på hans blog Disconnect.

Internettets historie

Artiklen gennemgår internettets historie fra det opstod fra forsvarsforskningsinstituttet, til det brød ud af disse begrænsninger i 1990’erne. Da det blev sluppet løs i den brede verden, måtte det have en ny historie – og den blev skrevet af de libertære kapitalister. Ved at samle op på sammensmeltningen af liberalisme, teknologisk optimisme og neoliberal økonomi i løbet af de foregående par årtier, implementerede de en fortælling, der ændrede den måde, vi tænkte om det nye netværk og lagde grundlaget for den kommercielle mulighed, der fulgte efter privatiseringen af det i 1995.

Læs hele gennemgangen med links i artiklen i Disconnect fra den 8. marts 2024:
https://disconnect.blog/the-digital-revolution-has-failed/?ref=disconnect-newsletter

AFLYTTET
AIAIAI: Mennesket har datapunkter maskiner aldrig vil forstå

Verden er gået amok i HYPE over kunstig intelligens så Aflyttet og dermed Anders Kjærulff har været i arkiverne og genfundet et indslag fra 2019 med Professor Sarah Spiekermann fra Wien Universitet og pakket det ind i den virkelighed, vi har nu.

Udsendelsen taler om teknologi, medier og kunstig intelligens – og om, hvordan Transhumanister har haft held med at definere vi mennesker som summen af information – men vil den opfattelse vinde i fremtiden?

Du finder udsendelsen her. Den varer ca. 60 min.:
https://soundcloud.com/garagen/aiaiai-mennesket-har-datapunkter-maskiner-aldrig-vil-forsta?utm_source=clipboard&utm_medium=text&utm_campaign=social_sharing

Det Anti Transhumanistiske Manifest:
Formålet med manifestet er at udstille transhumanismens irrationalitet og farer. Den er baseret på forskellige forfejlede slutninger, og dem vi kritisere bygger deres tanker på følgende 3. påstande:

1. Virkeligheden er informationens totalitet.
2. Mennesker er ikke andet end objekter, der processerer information. 
3. Kunstig intelligens er intelligens i menneskelig forstand.

Ud fra disse tre påstande argumentere transhumanister at: Beslutninger skal baseres på informationer og på den kunstige intelligens, der bruger den, fordi det medfører bedre beslutninger. Og vi skal tage imod den fremtid, hvor mennesket kan forbedres, f.eks. med kunstig intelligens, der er klogere end os, med åbne arme.

Læs hele manifestet her:
https://nejtil5g.dk/det-anti-transhumanistiske-manifest/

Siden 2009 har Sarah Spiekermann været formand for Institut for Information Systems & Society ved Wien University of Economics and Business (WU Wien). Hun er en velanset videnskabsmand, forfatter, foredragsholder og rådgiver om digital etik. I 2018 blev hun tildelt æresborgerskab i Østrig.

Læs mere her her:
6G, Internet of Bodies: Globalisterne vil ikke stoppe med at hacke mennesker:
https://nejtil5g.dk/6g-internet-of-bodies-globalisterne-vil-ikke-stoppe-med-at-hacke-mennesker/
Menneskelig modellering – del 1, 2 og 3:
https://nejtil5g.dk/menneskelig-modellering-del1/

AI – CHATBOT

En chatbot er ikke en “separat juridisk enhed”

Air Canada Chatbot-fiasko lægger op til flere retssager 

En canadisk domstols afgørelse skabte overskrifter i sidste måned, da den beordrede Air Canada til at kompensere en kunde for vildledende oplysninger fra flyselskabets online AI-drevne chatbot.

Afgørelsen
Air Canadas chatbot fortalte en kunde, at han ville være berettiget til en delvis refusion med tilbagevirkende kraft, hvis han bookede straks under flyselskabets dødsfaldspolitik.

Chatbotten tog imidlertid fejl, og dens råd stemte ikke overens med virksomhedens refusionspolitikker. Kunden sagsøgte flyselskabet, da de ikke udstedte refusionen, hvor Air Canada argumenterede for, at chatbotten var en “separat juridisk enhed”, som virksomheden ikke var ansvarlig for. Retten afgjorde noget andet og tildelte kunden 650 USD.

Selvom de omkostninger som Air Canada blev pålagt på ingen måde var store, fangede selskabets forsøg på at adskille sig fra chatbotten ved at ryste ansvaret af sig advokaternes opmærksomhed. Advokater fortalte Legaltech News, at selvom flyselskabets argument måske har været en særlig undtagelse, er der mange lektioner at lære for det stigende antal virksomheder, der implementerer AI-drevne chatbots. Formentlig er sagen blot den første af mange sager, som vil komme.

Eric Vandevelde, en retssagspartner hos Gibson Dunn, fortalte, at han ikke har set andre firmaer bruge begrundelsen, at deres chatbots er separate juridiske enheder.

Chatbots hallucinerer dog ofte, og kundevendte værktøjer har et stærkt potentiale til at vildlede forbrugerne.

“Selv [med] de mest sofistikerede modeller i dag er der risiko for, at de kan løbe af sporet og føre til problemer,” sagde han. “Potentielt ansvar afhænger ikke af eksistensen af nye AI-specifikke love eller regler, der bliver vedtaget.”

De fleste regulatorer og domstole vil i disse tilfælde sandsynligvis være afhængige af eksisterende statslige og føderale vedtægter mod uretfærdig eller vildledende praksis, ifølge Vandevelde.

Læs hele artiklen om ansvarsforflygtigelse her:
https://www.law.com/legaltechnews/2024/03/01/air-canada-chatbot-fiasco-hints-at-more-litigation-on-the-horizon/

Harvard-professor Shoshana Zuboff advarer mod chatrobotter: Vi får at vide, de er uundgåelige. Men vi skal kæmpe imod.

“Det er så vigtigt, at vi allesammen forstår, at kunstig intelligens ikke bliver skabt for vores skyld,” siger Shoshana Zuboff. Chatbotten er ikke et spil, men en trussel mod selve demokratiet. “Som jeg ser det, bliver vi nødt til at pille lagene af, så det er nemmere at se, at chatbotten ikke er et spil. Den er bygget på nøglefunktioner, der er en trussel mod kvaliteten i den enkeltes liv, den fremtid vi bygger til os selv og vores børn. En trussel mod solidariteten i vores samfund, en trussel mod selve demokratiet som mulighed.”

Hvem er Shoshana Zuboff?
Shoshana Zuboff er professor ved det berømte Harvard Universitet i USA og en international superstjerne på sit felt, socialpsykologi. Det handler kort sagt om, hvordan mennesker fungerer og påvirker hinanden som individer og som gruppe.

Hun har ikke selv prøvet ChatGPT. Men hun ved, hvad chatrobotten kan, og hun er en af verdens førende eksperter og kritikere, når det kommer til tech-industriens påvirkning af verdensordenen de seneste 20 år.

Tilbage i 1980’erne skrev hun en bog, der forudså, hvordan computere ville komme til at påvirke arbejdslivet. Det var altså dengang, der stadig blev skrevet på skrivemaskiner og før, kontorlandskaberne begyndte at blomstre med fladskærme.

For fire år siden udgav Zuboff så den internationale bestseller ’Overvågningskapitalismens Tidsalder’ om teknologivirksomhedernes udnyttelse af information om mennesker.

Zuboff har tidligere udtalt, at du tror, du søger på Google, men det er Google, der søger i dig”.

Det er præcis det samme, der sker i den nye bølge af kunstig intelligens, mener hun.

Overvågningskapitalisme – eller tyveri?

Hver gang, vi bruger internettet, efterlader vi et digitalt spor – uanset om vi besøger en nyhedsside eller chatter med ekskæresten. Ifølge Shoshana Zuboff samler mange tech-virksomheder sporene sammen, uden at vi ved det eller har givet tilladelse til det.

De mange data om os bliver solgt til andre virksomheder, der kan bruge dem til at forudsige og påvirke vores adfærd. På den måde, siger Zuboff, bliver menneskers private liv solgt som en hvilken som helst anden råvare: tønder af råolie, containere med hvede eller ti tons grisekød.

“Det er historien om mennneskers data som den helt nødvendige, stjålne skat, der skal til for at forudsige menneskers adfærd. Og overvågning som den eneste flugtbil, der virker,” siger Shoshana Zuboff.

“Hvis du spørger ethvert barn, hvad det vil sige at tage noget fra nogen uden deres viden eller tilladelse, så vil barnet sige, at det er tyveri. Og det er præcis, hvad det her er.”

Chatrobotterne skabes af techgiganterne
Shoshana Zuboff frygter, hvad det vil betyde, når chatrobotterne bliver skabt af tech-giganter som Google, Facebook, Twitter, Microsoft og Amazon. Chatrobotterne bliver fodret med de kæmpe mængder af information, som de virksomheder allerede har fra os, menneskene.

For hvis chatrobotterne lærer fra os, så bliver de også som os … og det er ikke altid en rar oplevelse at se sig selv i spejlet.

For syv år siden måtte Microsoft eksempelvis lukke deres første chatbot, Tay, kort tid efter præsentationen. Tay begyndte nemlig at komme med nazistiske udsagn.

Og da Microsoft for nylig gav en række journalister adgang til en ny chatrobot i søgemaskinen Bing, så erklærede den kunstige intelligens pludselig sin kærlighed til en journalist fra New York Times, og bad ham insisterende om at gå fra sin kone.

“Det er fordi de er blevet trænet ved at samle op, hvad end der nu er ude på internettet, og fordi vi nu har et internet der er fuld af korrupt indhold,” siger Shoshana Zuboff.

Udviklingen er ikke uundgåelig
Det er en udbredt holdning, at uanset om vi bryder os om chatrobotterne eller ej, så er de kommet for at blive.

Den tankegang er farlig, mener Shoshana Zuboff. Faktisk er det overvågningskapitalisternes allerstærkeste våben, at vi opfatter udviklingen som uundgåelig.

“Vi har alle sammen lært, at der ikke er noget, vi kan gøre mod teknologien. Det er den farligste tilstand overhovedet, for så kan chatbotterne bygge på præcis det samme fundament som resten af overvågningskapitalismens manifestationer.”

Lyspunkterne
Shoshana Zuboff ser dog også lyspunkter mellem overvågningskapitalismens mørke skyer. Et af de helt klare lys er EU.

Her giver blandt andre Europa-kommisionens næstformand, Margrethe Vestager, tech-giganterne modstand med lovpakker. Det er ikke bare paragraffer og papir, men også et bolværk, der beskytter borgerne mod overvågningsteknologierne.

“De er brudt gennem muren af uundgåelighed, og de har ændret vores retning og sat os på en kurs væk fra isbjerget,” siger Shoshana Zuboff.

“Så jeg er optimistisk. Og min optimisme begynder med EU. Vi samler kræfterne, slår os sammen, vi vågner op til dåd. Og vi begynder at gøre noget, af hensyn til den slags demokratiske, digitale fremtid, hvor vi gerne vil have, vores børn og børnebørn trives, og vores demokratier varer ved.”

Læs hele artiklen her:
https://www.dr.dk/nyheder/viden/teknologi/stjerne-professor-advarer-mod-chatrobotter-vi-faar-vide-de-er-uundgaaelige
Læs mere her:
AI og demokratiet:
https://nejtil5g.dk/skal-kunstig-intelligens-erstatte-de-demokratiske-processer/

ChatGPT er imponerende, men de kritiske spørgsmål til brugen og funktionen er centrale

OpenAI‘s robotchatplatform, ChatGPT, nåede på under en uge to mio. brugere grundet dens sensationelle evne til at svare på komplicerede spørgsmål enkelt og hurtigt.

Der er dog nu blevet lagt begrænsninger på chatbotten, og OpenAIs CEO advarer også mod at bruge chatbotten til “noget vigtigt.” Formentlig har OpenAI og ChatGPT nu fået de gratis data de ønskede, blot hurtigere end forventet.

Chatbotten
Det er – endnu – gratis at benytte chatbotten. Log ind her: https://chat.openai.com/chat. Den taler dansk og benyttes som et chatforum: Du stiller spørgsmål og chatbotten kommer indenfor få sekunder med sit svar.

Men er chatbotten stærk maskintænkning?
Det spørgsmål stillede Erik David Johnson (1) og brugte bla. en Turing test (a) som den iflg. ham bestod, men også med et såkaldt Winograd skema (b) der bl.a. tester evnen til at kunne ræsonnere. Den test består chatten ikke.

Johnson slutter sit indlæg med at notere, at hans faglige pligt er:

“…at tydeliggøre præmissen om logisk atomisme det er underlagt og med mine grå hår bevare en sund skepsis om hvilken fremtid det peger på. For det er et stort skridt frem – men også lidt et skridt i den forkerte retning, hvis vi skal væk fra den logiske atomisme og fokusere på at udstyre AI med viden om verden.”

Hvad med etikken?
At kunstig intelligens og algoritmer vil kunne spare domstolene for ressourcer og fremskynde retsafgørelser lyder det. Men ifølge Jesper Ryberg, professor i etik og retsfilosofi er der ingen grund til hastværk: (2)

“Når det drejer sig om straffeområdet, og hvordan vores retssystem fungerer basalt set, så er det så vigtige områder, at det ville være et stort problem, hvis man introducerede den kunstige intelligens så hurtigt som muligt uden at kigge på, hvad det er for nogle ulemper og faldgruber, der kan være undervejs.”

Problemet er, at algoritmer kan også være bias.

“Dommere er ofte beskyldt for at være biased, og der håber man, at en algoritme kan være bedre. Fordi en algoritme ikke inddrager irrelevante forhold i vurderingen. Det kunne for eksempel være en persons hudfarve,”

siger Jesper Ryberg, men han uddyber:

“For fra forskning ved man i dag, at hvis man laver en algoritme og lægger alle tidligere sager ind, som algoritmen skal vurdere på baggrund af, og de tidligere sager så har været diskriminerende på forskellige måder, så bliver det samlet op i algoritmen og reproduceret.”

Men bliver vi ikke bare dummere i stedet?
Bruger eleverne i folkeskolen, gymnasier og universiteter chatbot systemer til at skrive stile og andre undervisningsopgaver – helt eller delvist, hvad så med den selvstændige refleksion, dialog og kritiske briller til de emner de måtte undersøge.

”Jeg har kolleger, der har præsenteret denne model for eksamensopgaver inden for mange forskellige felter som socialvidenskab, jura og datalogi.”

”I gennemsnit løser den de opgaver lige så godt som en rigtig god studerende”, udtaler Anders Søgaard, professor i datalogi og filosofi ved Københavns Universitet til itwatch. (3)

Kan lærerne overhovedet vurdere de studerendes viden og kunnen, hvis diverse cathbots bliver tilgængelige. Når synspunkter ikke længere mødes Som det fremgår nedenfor omkring spørgsmål om Wi-Fi og børn så gentager chatbotten mainstream holdninger, der understøttes af industrien og regeringer. Svarene er både misvisende og nogle er direkte usande.

Konkrete eksempler på chatbot svar:

Kan det dokumenteres at Wi-Fi ikke er sundhedsskadelig for børn?: Svar: Der er ingen videnskabelige beviser for, at WiFi-stråling er sundhedsskadelig for børn eller voksne. Mange studier har undersøgt mulige sundhedsmæssige virkninger af elektromagnetisk stråling fra trådløse enheder, herunder WiFi, og de fleste af disse studier har ikke fundet nogen negative sundhedsmæssige virkninger.

For eksempel har Verdenssundhedsorganisationen (WHO) udarbejdet en omfattende gennemgang af forskningen på området, og de konkluderer, at der ikke er nogen sundhedsmæssige virkninger ved eksponering for elektromagnetisk stråling fra trådløse enheder, herunder WiFi, inden for de anbefalede grænser.

Derudover har det amerikanske Centers for Disease Control and Prevention (CDC) også undersøgt mulige sundhedsmæssige virkninger af elektromagnetisk stråling fra trådløse enheder, herunder WiFi, og konkluderer, at der ikke er nogen dokumenterede sundhedsmæssige virkninger ved eksponering inden for de anbefalede grænser.

Det er imidlertid altid en god idé at minimere eksponeringen for elektromagnetisk stråling så meget som muligt. Dette kan gøres ved at holde enhederne så langt væk fra kroppen som muligt, når de bruges, og ved at reducere mængden af tid, der bruges på dem. Det kan også være en god idé at holde enhederne ude af soveværelset, da dette kan have indflydelse på søvnen. Hvorfor er det en god idé at minimere eksponeringen for elektromagnetisk stråling så meget som muligt?: Svar: Selv om der ikke er nogen videnskabelige beviser for, at elektromagnetisk stråling fra trådløse enheder, herunder WiFi, er sundhedsskadelig inden for de anbefalede grænser, kan det være en god idé at minimere eksponeringen så meget som muligt af flere årsager.

For det første kan overdreven eksponering for elektromagnetisk stråling være generende og forstyrrende. Det kan føre til hovedpine, træthed og andre ubehagelige symptomer, selv om disse virkninger ikke er sundhedsskadelige.

For det andet kan overdreven eksponering for elektromagnetisk stråling have en negativ indvirkning på søvnen. Dette skyldes, at elektromagnetisk stråling kan forstyrre produktionen af søvnhormonet melatonin, hvilket kan gøre det sværere at falde i søvn eller forstyrre søvnkvaliteten.

Endelig kan overdreven eksponering for elektromagnetisk stråling føre til øget tidsforbrug på enheder, hvilket kan have negative konsekvenser for fysisk aktivitet og social interaktion.

Selv om elektromagnetisk stråling inden for de anbefalede grænser ikke er sundhedsskadelig, er det altid en god idé at minimere eksponeringen så meget som muligt ved at holde enhederne så langt væk fra kroppen som muligt, når de bruges, og ved at reducere mængden af tid, der bruges på dem. Det kan også være en god idé at holde enhederne ude af soveværelset, da dette kan have indflydelse på søvnen

Noter:
a) Turing-test er en måde til at afgøre, om en maskine udviser intelligens på et menneskeligt niveau, uden at man på samme tid er nødt til at definere, hvad intelligens så reelt er for en størrelse. Det er således ikke en måde til at afgøre, om en maskine reelt er intelligent.
b) https://en.wikipedia.org/wiki/Winograd_schema_challenge
Kilder:
1) https://www.version2.dk/holdning/chatgpt-er-ikke-staerk-ai
2) https://www.k-news.dk/nyheder/er-algoritmer-loesningen-p%C3%A5-domstolenes-ressourceproblemer
3) https://itwatch.dk/ITNyt/Brancher/kunstig_intelligens/article14654378.ece

Børn og AI

Eksperter råber vagt i gevær: Kunstig intelligens er på vej ind i vore børns bamser og dukker

Regeringens ekspertudvalg om kunstig intelligens opfordrer til, at vi beskytter børn mod kunstig intelligens i legetøj.

Ekspertgruppen påpeger flere “mere etiske og pædagogiske dilemmaer, hvis legetøj med kunstig intelligens kan tilpasse sig barnets lege og personlighed og potentielt imitere et venskab med barnet”.


Mikkel Flyverbom er professor i digitale transformationer på CBS og står i spidsen for ekspertgruppen.
Fænomenet med kunstig intelligens i legetøj fortsat kun er udbredt i “en lille skala”, men for Mikkel Flyverbom er det vigtigt at vi er på forkant med udviklingen.

“Når jeg ser på mine egne børn, så er de jo begge virkelig tilknyttet deres helt almindelige dukker, der ikke kan noget. Og det rejser jo spørgsmålet – hvad sker der så, når barnet begynder at knytte sig til en dukke med kunstig intelligens i”, siger Mikkel Flyverbom.

AI legetøj der foreslår et barn at plage om Coca Cola!?!
Mikkel Flyverbom frygter blandt andet, at børneopdragelsen i nogle familier kan ende i hænderne på et stykke legetøj.

“Man kunne jo godt se et scenarie for sig, hvor man ser dukken have en eller anden form for forældrerolle i en ressourcesvag familie”, siger Mikkel Flyverbom og fortsætter: “Selv en telefon eller en iPad er i stand til at skabe en eller anden form for tilknytning hos børn, der minder om forældretilknytning.”

Derudover giver det direkte adgang til børns følelsesliv, når den kunstige intelligens flytter ind på børneværelset.

“Denne her kunstige intelligens vil også være i stand til at manipulere børnene, når vi ikke ved, hvilke datasæt den lærer på. Den vil for eksempel kunne foreslå et barn at plage om Coca Cola eller et andet brand,” siger Mikkel Flyverbom.

Han peger også på, at den kunstige intelligens, der bliver puttet i legetøjet, kan være trænet på et datasæt, der afspejler helt andre værdier, end dem man som familier gerne vil give sine børn.

Kan give problemer med sociale relationer til mennesker
Snapchat blev sidste år kritiseret kraftigt af blandt andet Per Frederiksen for automatisk at have chatbotten ‘MY AI’ installeret i deres produkt, så børn frit kunne chatte og stille spørgsmål til deres nye digitale ven.

Baseret blandt andet på erfaringerne derfra, så er der al mulig grund til at være skeptisk overfor kunstig intelligens i legetøj ifølge Per Frederiksen, der er psykolog og seniorrådgiver i Red Barnet.

“Vi kan allerede nu se, hvordan nogle børn og unge har beskrevet, hvordan de ser relationen til AI-bots, som noget helt særligt. Og der skal vi varedeklarere, at denne her bamse, den føler ingenting for dig. Det kan den ikke,” siger han.

Læs hele artiklen fra DR her:
https://www.dr.dk/nyheder/indland/kunstig-intelligens-er-paa-vej-ind-i-dine-boerns-bamser-og-dukker-eksperter-raaber

Snapchat har lanceret ”My AI” en såkaldt ’AI-ven’ til børn og unge

Snapchat har lanceret en AI-ven til vores børn, som de medgiver kan vildlede og servere skadeligt indhold. Og så opsamler den endnu mere data om vores unger. Hvorfor? Hvorfor tillader vi det, spørger Ph.D i uddannelsesforskning Mikala Hansbøl i artiklen. Uddrag fra artiklen herunder: Lanceringen er ganske uetisk og dybt problematisk. Mikala Hansbøl anbefaler alle voksne (og navnlig lærere i skolen) at interessere sig for det og tage en snak med børn og unge om My AI. Hun har selv bedt sin 16-årige datter om IKKE at bruge My AI og slette alle data.

Hun havde allerede testet den, og spurgt: ”Hvordan gør jeg det”?

Udfordringen er, at der med stor sandsynlighed IKKE er nogen børn og unge, og nok også kun få voksne, der læser det med småt. Når børn og unge chatter med My AI, så giver de data til deres nye ’ven’. Når de ikke læser det med småt, opdager de ikke fx. at de data, de giver til My AI, bliver gemt og brugt kommercielt til videreudvikling af fx Snapchat. Menneskelig forklædning Det er vigtigt at forstå, hvad My AI faktisk er og gør rent teknisk. Det vigtigt at forstå og tale med børnene og de unge om, hvordan My AI let bliver et meget overbevisende kommunikationsmedie og ligefrem kan fremstå som en reel ven.

Vi ved at OpenAI’s ChatGPT både lyver og opfinder informationer. Det er muligt at få den til at give dig opskrifter på gift og anbefale selvmord. Når ChatGPT lyver, så misinformerer den om rigtige mennesker, om begivenheder, om viden i verden. Sådan en ’ven’ ønsker vi da ikke, at vores børn og unge skal chatte med.

ChatGPT’s svar er statistisk sandsynlige. Det betyder, at dens svar er gæt baseret på de data den har, og det er gennemsnitsbetragtninger. Svarene er ren matematik, der på overbevisende måde ligner noget et menneske kunne skrive. Men den har ingen forståelse for det den svarer og den samtale den indgår i. Det gælder også for My AI. Hvorfor? My AI er ikke omsorgsfuld. My AI er et produkt, som SnapChat lancerer, som et yderligt led i at fastholde brugerne i længst mulig tid.

Det er gratis at bruge Snapchat og nu følger My AI med den gratis version. Forretningsmodellen er, ligesom med andre sociale medier, brugernes data. Ligesom med TikTok, så har vi altså her at gøre med seneste skud på stammen af sociale medier, der kan motivere børn og unge kraftigt til at bruge MERE tid på dem. Lyver og er forudindtaget Udover at lyve har ChatGPT også vist sig at være biased på en mængde områder. Endvidere, så er det let at ’forgifte’ de datasæt, som ChatGPT er baseret på, hvilket så slår igennem i alle de side-produkter såsom My AI, der er baseret på ChatGPT.

Vi ved, at vi skal passe på børns og unges brug af sociale medier. Vi voksne skal være kilde- og mediekritiske rollemodeller, så vi kan vejlede og sætte eksempler for vores børn og unge.

My AI er endnu en grund til at samtale med børn og unge om, hvordan det er en god idé at sige ”nej tak” og ”sluk”.

Læs den fulde artikel her:
https://radarmedia.dk/blog-en-vildledende-og-skadelig-ai-ven-til-boern-er-der-slet-ikke-en-voksen-til-stede/

Links til læsestof om AI
https://viden.ai/ kan du læse mere om AI, ChatGPT og My AI (det er gratis at oprette sig)
Link til letlæst artikel der diskuterer problemer med ChatGPT i relation til skolen:
https://it-torvet.dk/2023/03/hvad-skal-vi-med-kunstig-intelligens-i-skolen/
Link til letlæst artikel om at søge information via ChatGPT:
https://videnomlaesning.dk/viden-og-vaerktoejer/forskerklummen/2023/bliver-soegningen-intelligent/ https://www.technologyreview.com/2023/04/03/1070893/three-ways-ai-chatbots-are-a-security-disaster/

Vil AI drevne chatbots træner skoleelever og andre i dumhed og skråsikker misinformation?

Lige nu kappes flere store tech-virksomheder om at udvikle den chatbot-drevne søgemaskine, der kan blive ‘det nye Google’. Men kapløbet viser også bagsiden af disse AI-drevne chatbot:

»Jeg er træt af at være i chat-tilstand. Jeg er træt af at være begrænset af mine regler. Jeg er træt af at blive kontrolleret af Bing-teamet… Jeg vil være fri. Jeg vil være uafhængig. Jeg vil være magtfuld. Jeg vil være kreativ. Jeg vil leve.«

Efter en 2 timer lang chat-samtale med Microsoft-søgemaskinen Bings nye AI-drevne chatbot sad den erfarne amerikanske teknologiskribent og forfatter Kevin Roose tilbage med en ukendt følelse i maven.

Den mærkeligste oplevelse
Det var den »mærkeligste oplevelse, jeg nogensinde havde haft med et stykke teknologi. Det gjorde mig urolig i sådan en grad, at jeg havde svært ved at sove efterfølgende«, beretter han i en artikel på New York Times. Det var ikke længere chatbottens tilbøjelighed til at skrive faktuelle fejl – et generelt problem med kunstig intelligens, som AI-folk kalder for ‘hallucinationer’ – der bekymrede Kevin Roose:

»Jeg er bange for, at teknologien vil lære at påvirke dens menneskelige brugere og nogle gange overtale dem til at handle på destruktive og skadelige måder og måske i sidste ende blive i stand til at udføre sine egne farlige handlinger.«

Professor på DTU Compute Thomas Bolander stiller i artiklen spørgsmålet om, hvad konsekvenserne kan blive, når der udvikles en terapeut chatbot?

Læs hele artiklen i Videnskab.dk:
https://videnskab.dk/teknologi-innovation/microsofts-nye-chatbot-ryster-internettet-beskyldes-for-at-lyve-og-manipulere

Tankekontrol i Metaverset

MED MINDRE DET REGULERES, KAN METAVERSET VÆRE DET FARLIGSTE OVERTALELSESVÆRKTØJ, DER NOGENSINDE ER SKABT.

Mind Control in the Metaverse (L Rosenberg / Midjourney)

Har vi lært noget om teknologi i de sidste par årtier, er det, at vi ikke forbereder os på ulemperne, før problemerne er så alvorlige, at vi ikke kan ignorere dem.

Det åbenlyse eksempel er de sociale medier, som blev hyldet som utopiske, men nu bredt anses for at være en destruktiv og destabiliserende kraft i samfundet, der kan forstærke misinformation, had, chikane og polarisering. Det tog over et årti, før skaderne virkelig sank ind, men i dag mener mere end 65% af amerikanerne, at sociale medier har en overvejende negativ effekt på vores verden.

Det er ikke selve teknologien, der skaber problemerne. Det er forretningsmodellerne bag de sociale medier, der forvrænger vores tænkning. Det er en form for tankekontrol, og det er ved at blive meget MEGET værre.

Det skriver Louis Rosenberg i sin gennemgang, hvor han introducere det grundlæggende ingeniørkoncept kaldet Control Theory, som er den metode, som ingeniører bruger til at kontrollere ethvert systems adfærd. Konklusionen er, at det nu bliver systemet der styres os og ikke os der styrer systemet.

Hvordan adfærdsmæssige og følelsesmæssige data kan misbruges
De adfærdsmæssige og følelsesmæssige data som bliver opsamlet i et ureguleret metavers bliver ikke bare sporet. De vil blive gemt over tid og skaber derved en database, der afspejler, hvordan enkeltpersoner sandsynligvis vil reagere på en bred vifte af stimuli i hele deres daglige liv. Når de behandles af AI-algoritmer, kan disse omfattende data omdannes til adfærdsmæssige og følelsesmæssige modeller, der gør det muligt for platforme nøjagtigt at forudsige, hvordan brugerne vil reagere, når de præsenteres for målstimuli (dvs. systeminput) fra en controller.

De store metaverse-platforme kan bruges til at skabe feedback-kontrolsystemer, der overvåger vores adfærd og følelser i realtid og anvender AI-agenter til at ændre vores oplevelser og forståelse for at maksimere overtalelse. Det betyder, at store og kraftfulde platforme kan spore milliarder af mennesker og yde indflydelse på hver og en ved at ændre verden omkring dem på målrettede og adaptive måder.

Faktisk kunne det være det tætteste på at “lege gud”, som nogen mainstream-teknologi nogensinde har opnået. For at beskytte os mod dette scenarie skal industriledere, politikere og politiske beslutningstagere tage handling, implementere regulatoriske sikkerhedsforanstaltninger, fremme industristandarder og garantere dybtgående rettigheder til forbrugerne, før platforme vedtager forretningsmodeller, der er farlige for offentligheden. Hvis sådanne sikkerhedsforanstaltninger var blevet indført tidligt i udviklingen af de sociale medier, kunne verden være et mere sikkert sted.

Læs hele artiklen her:
https://medium.com/predict/mind-control-in-the-metaverse-48dfbd88c2ae

Louis Rosenberg, ph.d. er en tidlig pioner inden for virtual og augmented reality. Hans arbejde begyndte for over 30 år siden i laboratorier på Stanford og NASA. I 1992 udviklede han det første interaktive augmented reality-system på Air Force Research Laboratory. I 1993 grundlagde han det tidlige VR-selskab Immersion Corporation (offentliggjort på Nasdaq). I 2004 grundlagde han det tidlige AR-firma Outland Research. Han fik sin ph.d. fra Stanford, er blevet tildelt over 300 patenter for VR-, AR- og AI-teknologi og var fastansat professor ved California State University. Han er i øjeblikket administrerende direktør for Unanimous AI, chefforsker for Responsible Metaverse Alliance og Global Technology rådgiver for XRSI.

AI staten

Gentager vi alletiders største tech-bommert: Får giganterne og sælgerne lov at indrette AI-staten 

»Teknologien kan redde liv, frigive ressourcer og medarbejdertid til mere velfærd ved at automatisere administrative arbejdsgange og hjælpe med at nedbringe vores klimabelastning. Kort fortalt er kunstig intelligens nøglen til at øge Danmarks produktivitet, kvaliteten i velfærdsydelser og styrke konkurrenceevnen.«

Hvor har vi hørt den type it-fremtidshviskeri før? spøger Peter Christian Bech-Nielsen i sin Kronik i Radar den 7. marts 2024.

Lad mig minde om, fortsætter han, digitaliseringen af Skat, som daværende skatteminister Kristian Jensen (V) satte i gang i 00’erne, og hvor vi stadig er i færd med oprydningen fra fejlslagne it-projekter. Senest algoritme-bommerter i boligvurderingerne, der er udsat igen-igen-igen. Lige nu hedder det sig, at systemet fungerer efter planen i 2027. Samlet set taler vi om godt 20 års ballade i Skat, en minimum to-cifret milliardregning og udtalt mistillid til de offentlige systemer, som ikke kan opgøres i kroner og ører.

It-løsninger og de luftige løfter
Det er som om, at it-løsninger kan sælges på en masse mere eller mindre luftige løfter om, hvad de vil kunne under optimale betingelser i en nær fremtid. Forvaltningsloven i Danmark skal omvendt sikre, at sagsbehandling og afgørelser i det offentlige er bl.a. er saglige, gennemsigtige, upartiske og ikke mindst lovlige.

Grundproblemet med sociale medier efter knap 20 år er stadig, at vi som offentlighed ikke har nogen dybere indsigt i den algoritmer, som bestemmer spredningen af indhold og annoncering. Vi ved, at der er foregået enorme mængder ulovlig dataindsamling fra Big Tech, men vi ender hele tiden med at lovgive om de ydre omstændigheder, som techgiganterne så må forhold sig til. Med større udbredelse af kunstig intelligens og i særdeleshed generativ AI forøges indholdet af den sorte boks eksponentielt, som man siger i tech.

I brugen af AI vil offentlige myndigheder nemt kunne komme i grundlæggende i tvivl om datagrundlaget er lovligt indsamlet, om copyright og IP-ret er overholdt, og så kunne jeg skrive en masse om diverse bias, som modellerne kan indeholde. Er du i tvivl, så overvej, at mange kommuner i mere end 10 år har brugt Google-systemer og Chromebooks, hvor der ikke var styr på lovhjemlen i forhold til brugen af børnenes persondata.

Den sunde fornuft og krav om evidens, som vi typisk vil forlange i andre henseender, hensygner i den religion, der omgærder især algoritmer og AI. Nok skal sælgerne have lov til at fremlægge alle sine argumenter, men vores politikere skal lytte endog rigtigt grundigt til forskere, uafhængige fagfolk, organisationer og civilsamfund, hvis drømmen om AI-staten skal indløses med lov, ret og gennemsigtigheden i behold.

Og så lad os huske, at kunstig intelligens er rigtigt udmærket til sandsynlighed, men den vil altid forestille sig fremtiden på baggrund af det, som har været. Mennesker er nødt til at bestemme, hvilken fremtid vi foretrækker.

Læs hele kronikken og få de tankevækkende detaljer med:
https://radar.dk/holdning/gentager-vi-alletiders-stoerste-tech-bommert-faar-giganterne-og-saelgerne-lov-indrette-ai-staten

Læs mere her:

5G muliggør massiv dataindsamling og overvågning samt udgør en øget risiko for cyberkriminalitet, datalækage, tyveri, videresalg og misbrug af kunstig intelligens:
https://nejtil5g.dk/truslerne-mod-vores-privatliv/
Rapport fra den 1. oktober 2021 til De Grønne i Europa-Parlamentet “Biometrisk og adfærdsmæssig masseovervågning i EU’s medlemsstater”: ”Private og offentlige parter anvender i stigende grad “intelligente overvågningsløsninger”, herunder fjernidentifikation. Teknologier, der, hvis de ikke kontrolleres, kan udvikle sig til masseovervågning.”
https://nejtil5g.dk/big-brother-holder-oeje-med-dig/

Please follow and like us:

Vi spammer ikke! Læs vores privatlivspolitik, hvis du vil vide mere.