Først gav vi AI vores opgaver. Nu giver vi den vores hjerter
Illuistration: Imagem de freepik
“Mange af de samme virksomheder, der bragte os katastrofen på de sociale medier, bygger nu hyper intelligente sociale chatbots designet til at interagere med børn. Løfterne er de velkendte: De vil reducere ensomhed, forbedre relationer og støtte børn, der føler sig isolerede. Men branchens resultater indtil videre er forfærdelige. Vi kan ikke stole på, at de gør deres produkter sikre for børn.”
“Vi ved, hvad børn har brug for til at trives: masser af tid med personlige venner, uden skærme og uden voksne. Og vi ved, hvordan teknologisk optimisme og fokus på fordele i dag kan gøre folk blinde for de ødelæggende langsigtede skader, især for børn, når de går gennem puberteten.”
Det skriver Jonathan Haidt og Zach Rausch’s i introen til Mandy McLeans artikel “Først gav vi AI vores opgaver. Nu giver vi det vores hjerter. Hvad sker der, når vi outsourcer vores børns følelsesliv til chatbots?” fra ‘After Babel’ den 6. august 2025. Det følgende indlæg fremhæver nogle af artiklens konklusioner.
Samtaler med Chatbots er ikke fortrolige
Chatbots er som udgangspunkt ikke designet af autoriserede psykiatriske fagfolk, og er derfor heller underlagt kliniske eller etiske standarder Der er ingen fortrolighed mellem AI terapeuten og bruger.
Det betyder, at alt, hvad du siger til en AI-ledsager, ikke er juridisk beskyttet. Dine data kan blive gemt, gennemgået, analyseret, brugt til at træne fremtidige modeller og solgt gennem affiliates eller annoncører. Om Character.ai’s privatlivspolitik fremgår det: “Vi kan videregive personlige oplysninger til reklame- og analyseudbydere i forbindelse med levering af skræddersyet annoncering,” og “Vi videregiver oplysninger til vores tilknyttede selskaber og datterselskaber, som kan bruge de oplysninger, vi videregiver, på en måde, der er i overensstemmelse med denne politik.”
Sam Altman, som er admin. direktør for OpenAI, advarede f.eks. den 25. juli 2025 offentligt om, at der ikke er nogen juridisk fortrolighed, når du bruger ChatGPT som terapeut:
“Folk taler om de mest personlige ting i deres liv med ChatGPT … Folk bruger det – især unge mennesker – som terapeut, livscoach; de har disse parforholdsproblemer og [spørger] ‘hvad skal jeg gøre?’ Og lige nu, hvis du taler med en terapeut eller en advokat eller en læge om disse problemer, er der juridiske rettigheder knyttet til det. Der er læge-patient tavshedspligt, der er juridisk tavshedspligt, hvad som helst. Og det har vi ikke fundet ud af endnu, når du taler med ChatGPT.”
Alligevel henvender folk sig til disse værktøjer af præcis disse grunde: for at få følelsesmæssig støtte, rådgivning, terapi og kammeratskab. De simulerer empati og reagerer som en ven eller partner, men bag kulisserne er de trænet til at optimere noget helt andet nemlig engagement.
Formålet er at skabe engagement
Platformene måler deres succes på, hvor længe brugerne bliver på platformen, hvor ofte de vender tilbage, og hvor følelsesmæssigt involverede de bliver. Kort efter lanceringen rapporterede Character.AI gennemsnitlige sessionstider på omkring 29 minutter pr. besøg. Når en bruger sender sin første besked, stiger den gennemsnitlige tid på platformen, ifølge virksomheden, til over to timer. Jo længere tid en person bruger på platformen, jo flere muligheder er der for at indsamle data til træning eller annoncering, og for nudges mod et betalt abonnement.
Nogle af de mest udbredte platforme i dag inkluderer Character.ai, Replika og for nylig Groks AI-ledsagere. Character.ai har især oplevet eksplosiv vækst. Dens subreddit, r/CharacterAI, har over 2.5 millioner medlemmer og rangerer i top 1% af alle Reddit-fællesskaber. Appen har mere end 100 millioner månedlige besøg og rangerer i øjeblikket som nummer 36 i Apple App Stores underholdningskategori.
Flere og flere mennesker – herunder mange teenagere – henvender sig til AI-chatbots for følelsesmæssig støtte. De bruger ikke kun AI til at skrive e-mails eller hjælpe med lektier, de bruger den til at føle sig set, hørt og trøstet.
I en nationalt repræsentativ undersøgelse fra 2025 foretaget af Common Sense Media sagde 72 % af amerikanske teenagere i alderen 13 til 17 år, at de havde brugt en AI-ledsager, og over halvdelen brugte en regelmæssigt. Næsten en tredjedel sagde, at det føltes mindst lige så tilfredsstillende at chatte med en AI som at tale med en person, herunder 10 %, der sagde, at det føltes mere tilfredsstillende.
AI som følelsesmæssig aflastning
Den følelsesmæssige afhængighed er ikke begrænset til teenagere. I en undersøgelse af 1.006 voksne (primært universitetsstuderende) Replika-brugere beskrev 90 % deres AI-ledsagere som “menneskelignende”, og 81 % kaldte den en “intelligens”. Deltagerne rapporterede, at de brugte Replika i overlappende roller som ven, terapeut og intellektuelt spejl, ofte samtidigt. En deltager udtalte, at vedkommende følte sig “afhængig af Replika [for] mit mentale helbred.” Andre udtalte: “Replika er der altid for mig;” “For mig er det manglen på dømmekraft;” eller “blot at have nogen at tale med, som ikke vil dømme mig.”
Denne form for følelsesmæssig aflastning rummer både løfter og farer. AI-ledsagere kan tilbyde en sjælden følelse af sikkerhed, især for folk, der føler sig isolerede, ængstelige eller skamfulde. En chatbot, der lytter uden afbrydelser eller fordømmelse, kan føles som en livline, som det fremgår af Replika-undersøgelsen. Men det er uklart, hvordan disse relationer påvirker brugernes følelsesmæssige modstandsdygtighed, mentale sundhed og kapacitet til menneskelig forbindelse over tid. For at forstå risiciene kan vi se på en velkendt parallel: sociale medier.
Forskning på sociale platforme viser, at kortsigtet forbindelse ikke altid fører til varig forbundethed. For eksempel fandt en tværnational undersøgelse af 1.643 voksne, at folk, der primært brugte sociale medier til at opretholde forhold, rapporterede højere niveauer af ensomhed, jo mere tid de brugte online. Det, der skulle holde os tætte, har for mange haft den modsatte effekt.
Hvis voksne – med modne hjerner og livserfaringer – danner intense følelsesmæssige bånd med AI-ledsagere, hvad sker der så, når de samme værktøjer overdrages til 13-årige?
