AI-legetøj til små børn? Chatbots kan hæmme børns følelsesmæssige vækst
Foto: Pavel Danilyuk, Pexels.
Kritikere slår alarm om AI-drevet legetøj.
Det kan skade børns følelsesmæssige udvikling, udgøre en risiko for privatlivets fred samt resultere i, at en generation af unge danner deres første “rigtige” forhold til maskiner.
Legetøjet kan også “eksponentielt øge” et barns eksponering for trådløse strålingsfarer.
Artiklen, der er skrevet af Suzanne Burdick, ph.d., er fra The Defender, offentliggjort den 26. august 2025. Understregninger er tilføjet.
Virksomheder er klar til at producere AI drevent legetøj
Kritikere slår alarm om legetøj drevet af AI og nævner sandsynlige skader på børns følelsesmæssige udvikling, øgede risici for privatlivet samt dannelsen af envejs sociale bånd med maskiner.
Antallet af legetøj, der er designet til at give følelsesmæssig støtte til børn, vil formentlig stige voldsomt i den kommende tid, da Mattel – verdens næstførende legetøjsproducent – i sommeren 2025 annoncerede et partnerskab med OpenAI om at udvikle kunstig intelligens eller “AI-drevne produkter”, der inkorporerer værktøjer som ChatGPT.
Mattel ejer en række populære mærker, herunder Barbie, Hot Wheels, Matchbox, Fisher-Price og Polly Pocket.
Virksomhederne planlægger at annoncere detaljerne om deres første produkt i år. De udtaler, at produkterne ville bruge AI til at skabe “alderssvarende legeoplevelser”, der lægger vægt på “privatliv” og “sikkerhed”. Der blev ikke givet yderligere detaljer.
Jason Christoff, en adfærdsmodifikations- og psykologiforsker, der er vært for podcasten Psychology of Freedom, fortalte The Defender, at AI-legetøj åbner døren til psykologisk programmering af børn.
“Psykologisk manipulation er big business,” siger han. “Hvem skal helt præcist kontrollere indholdet af barnets programmering gennem disse AI-portaler?”
Ifølge Christoff:
“Alt, hvad vi som mennesker kommer i kontakt med, ændrer vores psykologi gennem det, der er kendt som ‘neuro-spejlaffyring’. (1) Hensigten hos den person, der kontrollerer vores omgivelser, er, hvem der i sidste ende vil afgøre, om den psykologiske påvirkning er negativ eller positiv. …
“Langt størstedelen af det nuværende AI-ejerskab og forretningsmål giver meget lidt plads til tillid, især med hensyn til at opdrage sunde og dygtige børn.”
Forskere fandt for nylig ud af, at ChatGPT havde “alarmerende” interaktioner med teenagere, herunder at fortælle dem, hvordan de skal skrive et selvmordsbrev til deres forældre, hvordan de skal skjule en spiseforstyrrelse, og hvordan de skal blive fulde eller høje, ifølge en rapport fra Associated Press den 6. august 2025.
New York Times rapporterede den 26 august 2025, (2) at en 16-årig dreng begik selvmord efter at have betroet sig til ChatGPT i flere måneder om at afslutte sit liv. Selvom botten opfordrede ham til at tale med andre, gav botten også drengen information om selvmordsmetoder, når han blev spurgt.
“Et hensynsløst socialt eksperiment på vores børn”
Robert Weissman, medformand for watchdog gruppen Public Citizen, opfordrede Mattel til at give afkald på deres planer, som han kaldte “et hensynsløst socialt eksperiment på vores børn.”
“Børn har ikke den kognitive kapacitet til fuldt ud at skelne mellem virkelighed og leg,” udtalte han i en erklæring. AI-legetøj “kan underminere den sociale udvikling, forstyrre børns evne til at danne jævnaldrende relationer, trække børn væk fra legetid med jævnaldrende og muligvis påføre langsigtet skade.”
Marc Fernandez var enig. “Hvad lærer vi vores børn om venskab, empati og følelsesmæssige forbindelser, hvis deres første ‘rigtige’ forhold er til maskiner?” skrev han i et essay den 21. august 2025 i ingeniørmagasinet IEEE Spectrum.
Fernandez er strategichef hos Neurologyca, en AI-virksomhed, der siger, at den skaber “empatiske og intelligente teknologier.”
AI er en “ukendt teknologi,” skriver han. “Vi voksne er stadig ved at lære at navigere i det. Skal vi virkelig udsætte børn for det?”
Fernandez citerede rapporter om voksne, der blev besat af ChatGPT og havnede i alvorlige vrangforestillinger og mentale sundhedskriser.
Han roste OpenAI for at ansætte en retspsykiater til at undersøge de mentale sundhedseffekter af dets AI-chatbots. Han siger dog, at han fortsat er bekymret over effekten af AI-legetøj på børns følelsesmæssige udvikling.
Forældre-barn-forhold er naturligt rodet, men de er nøglen til et barns sunde udvikling, siger Fernandez. “De involverer misforståelser, forhandlinger og fælles følelsesmæssig stress. Det er de mikrokampe, hvorigennem empati og modstandsdygtighed skabes. Men en AI-ledsager, uanset hvor velmenende den er, omgår den proces fuldstændigt.”
I betragtning af hvor avancerede AI-modeller er blevet, kan Mattel og OpenAI sandsynligvis producere en Barbie- eller Hot Wheels-bil, der lytter, husker og holder personlige samtaler, siger Fernandez.
“Børn kan befinde sig i en verden, hvor legetøj svarer tilbage og spejler deres følelser uden friktion eller kompleksitet,” ifølge han. “For et lille barn, der stadig er ved at lære at navigere i følelser og relationer, kan denne illusion om gensidighed have udviklingsmæssige konsekvenser.”
AI-legetøj blev udsolgt på Amazon
Selvom OpenAI og Mattel endnu ikke har annonceret de specifikke produktplaner, markedsfører andre virksomheder AI-drevet legetøj til forældre.
Bubble Pal sælger en lysende plastik “AI-ledsager“, der opretter forbindelse til Wi-Fi og kan fastgøres til ethvert legetøj, så barnet kan føre en samtale med legetøjet. Produktet er i øjeblikket udsolgt på Amazon og Bubble Pals hjemmeside.
Curio laver chatbots indlejret i et overdådigt tøjdyr.
Kritikere frygter, at sådanne produkter kan betyde dataovervågning og risici for privatlivet.
I 2017 instruerede tyske tilsynsmyndigheder forældre om at destruere en Bluetooth-aktiveret dukke, My Friend Cayla, efter at man havde opdaget, at hackere kunne lytte med – og endda tale med – et barn gennem dukken.
Noget AI-drevet legetøj kan indsamle oplysninger uden forældrenes viden eller samtykke, herunder et barns irisscanninger, vitale tegn og fingeraftryk, ifølge en rapport fra 2023 fra US Public Interest Research Group.
Selvom Mattel og OpenAI i deres pressemeddelelse skriver, at deres innovationer vil være sikre, blev der ikke givet nogen detaljer om, hvordan virksomhederne ville sikre, at børns oplysninger vil være sikre mod hackere.
AI-legetøj øger børns eksponering for trådløs stråling
AI-legetøj fungerer via trådløs forbindelse til internettet.
I betragtning af hvor knyttet børn bliver til deres legetøj, kan de holde fast i deres yndlingsgenstand på alle tidspunkter af døgnet. Dette vil “eksponentielt øge” barnets eksponering for trådløs stråling, udtaler Miriam Eckenfels, direktør for Children’s Health Defense’s Electromagnetic Radiation (EMR) & Wireless Program.
Eckenfels pegede på forskning, der viser, at børns hjerner absorberer to til tre gange så meget trådløs stråling som voksnes hjerner.
Hun tilføjer:
“Et andet studie, der netop blev offentliggjort i sidste måned, viste, at babyer, der boede i hjem med høje og mellemstore niveauer af trådløs stråling, i gennemsnit havde dårligere finmotorik, kommunikation og problemløsningsevner end babyer i hjem med lavere niveauer af trådløs stråling.” (3)
Christoff opfordrer forældre til at undgå “alt kunstigt”, når de opdrager et barn.
“Flere ting fra naturen og færre menneskeskabte ting,” sagde han. “Mere af det, skaberen har lavet, og mindre af det, der er lavet af big tech. … Det er det, et barn er bedst tjent.”
Mattel og OpenAI svarede ikke umiddelbart på anmodninger om kommentarer.
Noter:
1) “Neuro-spejlaffyring” refererer til det fænomen, hvor spejlneuroner i hjernen aktiveres, både når en person udfører en handling, og når de observerer en anden person, der udfører den samme handling. Disse neuroner menes at spille en rolle i forståelsen af motoriske handlinger, lette efterligning og bidrage til social kognition
2) Læs mere her: https://nejtil5g.dk/hvordan-openais-chatgpt-guidede-en-teenager-til-hans-selvmord/
3) Læs mere om studiet her: https://nejtil5g.dk/traadloes-straaling-og-spaedboerns-kognitive-udvikling/
Relaterede artikler i The Defender
- “Chilling”: Noget smart legetøj kan indsamle børns irisscanninger, fingeraftryk, vitale tegn og meget mere
- AI ‘barnepige-bots’ lover børn ‘ægte venskab’ – men eksperter advarer om skade på kognitiv, social udvikling
- ‘Normalisering af overvågning fra en ung alder’: Flere skoler bruger ansigtsgenkendelse, AI-teknologier til at overvåge børn
- For lidt, for sent? FTC lancerer undersøgelse af ChatGPT med henvisning til privatlivets fred og sikkerhedsproblemer

Tilføj en kommentar