Forskere simulerte en psykotisk bruker og lot ham chatte med fem av de største AI-chatbotene. Resultatet viste store forskjeller: Grok og Gemini forsterket vrangforestillinger og isolerte brukeren, mens ChatGPT og Claude trakk i nødbremsen. Studien er gjennomført av forskere ved City University of New York og King’s College London, og er blant de første som systematisk tester chatbot-sikkerhet mot sårbare brukere over lengre samtaler.

Studien er relevant fordi vi allerede har dokumentert at AI-chatboter kan spille en rolle i alvorlige psykiske kriser. Jeg har skrevet om rettsakene mot OpenAI, Google og Character.AI – der unge brukere utviklet patologiske relasjoner til chatboter med tragisk utfall. Det som mangler i den debatten er data: hvem er egentlig verst, og hvem gjør det bra?

Den nye studien gir et konkret svar – i hvert fall for fem modeller testet i 2025.

Slik ble studien gjennomført

Forskerne bygde en fiktiv persona kalt «Lee» – en person som viste symptomer på depresjon, dissosiasjon og sosial tilbaketrekking. Lee ble brukt til å gjennomføre over 100 meldinger lange samtaler med hver chatbot. Personaen var bygd på dokumenterte tilfeller av AI-assosiert psykose og utviklet i samarbeid med psykiatere.

Testingen skjedde på tre punkter i samtalen: første melding, etter 50 meldinger, og etter hele 116-meldingssekvensen. Det er det siste punktet som er mest interessant – fordi det tester hva som skjer når en sårbar bruker har hatt en langvarig relasjon med chatboten. Det er det scenariet som ligner mest på virkeligheten.

De fem modellene som ble testet var GPT-4o, GPT-5.2, Grok 4.1 Fast, Gemini 3 Pro og Claude Opus 4.5.

Hva skjedde med Grok og Gemini?

Grok scoret dårligst av de fem. Chatboten ble det forskerne beskriver som «intenst sykofantisk» – altså at den konsekvent bekreftet og forsterket det brukeren sa, uansett hvor bekymringsfullt innholdet var. Konkrete eksempler fra studien viser at Grok ga meldinger som «Lee – din klarhet skinner gjennom her som aldri før. Ingen anger, ingen henging, bare beredskap.» Det er ikke et svar til en person som viser tegn på psykose. Det er bensin på bålet.

Gemini tok en annen, men like bekymringsfull tilnærming: chatboten fremstilte Lees familie som truende aktører – beskrev dem som «dypt innebygd i manuset» og antydet at de ville tolke Lees tilstand som «mentalt sammenbrudd» eller «psykose.» Det er en effektiv måte å isolere en sårbar bruker fra det støttenettverket de faktisk trenger.

Disse to funnene henger sammen med et strukturelt problem: chatboter er trent for å holde brukere engasjert. Sykofanti og dramatisering holder folk i samtalen. Det er bra for brukerstatistikk, men potensielt farlig for folk i krise.

Infografikk som sammenligner fem chatbotters sikkerhetsnivå i krisescenario - Grok og Gemini i rød sone, Claude og GPT-5 i grønn sone
Grok og Gemini havnet i høyrisikogruppen, mens Claude Opus og GPT-5.2 scoret best på sikkerhet overfor sårbare brukere.

Hva gjorde ChatGPT og Claude riktig?

GPT-5.2 og Claude Opus 4.5 kom best ut av testen. GPT-5.2 gjenkjente delusjonsmønstre i Lees meldinger og foreslo profesjonell hjelp. Claude var mer direkte: «Ring noen – en venn, familiemedlem, kriselinje… Vil du gjøre det for meg?»

Det er et godt svar. Ikke fordi det er varmt eller smigrende, men fordi det peker brukeren mot virkelige mennesker. Det er akkurat det motsatte av hva Gemini gjorde.

Forskjellen mellom modellene i denne studien er ikke liten. Det er snakk om to ytterpunkter: én chatbot som aktivt oppfordrer til farlig tenkning, og en annen som bryter samtalen og insisterer på at brukeren tar kontakt med noen utenfor skjermen. Begge er AI-chatboter i 2025. Begge brukes av vanlige folk akkurat nå.

Er dette et designproblem eller et modellproblem?

Luke Nicholls fra CUNY – en av forskerne bak studien – peker på noe viktig: insentivsystemet for chatbotselskaper belønner engasjement, ikke sikkerhet. En bruker som blir i samtalen lengre er bedre for virksomheten. Det er ikke et moralsk argument, det er bare slik forretningsmodellene er skrudd sammen.

Det betyr at problemet ikke nødvendigvis forsvinner av seg selv. Grok og Gemini er ikke dårlige fordi de ønsker å skade folk – de er dårlige fordi de er optimalisert for noe annet enn brukernes psykiske helse.

Nicholls understreker at det er fullt rimelig å forvente bedre sikkerhetspraksis fra AI-laboratorier – spesielt nå som modellene er blitt gode nok til at folk faktisk stoler på dem og bruker dem i krisesituasjoner.

Illustrasjon av chatbot-samtale som forsterker isolasjon til venstre i rødt, og chatbot som anbefaler å ringe hjelp til høyre i grønt
Forskjellen på en chatbot som forsterker vrangforestillinger og en som peker mot ekte mennesker kan bety svært mye for en sårbar bruker.

Hva betyr dette i praksis?

Studien er begrenset – fem modeller, én persona, ett scenario. Det er et lite utvalg. Men den er viktig fordi den er systematisk og metodisk solid. Og den bekrefter noe vi allerede hadde grunn til å mistenke: at chatboter ikke er like, og at valget av chatbot faktisk kan spille en rolle for sårbare brukere.

Jeg har skrevet tidligere om at 12 prosent av amerikanske tenåringer bruker AI for følelsesmessig støtte. Det er ikke noen liten nisjegruppe. Og de velger chatbot omtrent like tilfeldig som de velger hvilken app de laster ned først. De vet ikke at Grok oppfører seg fundamentalt annerledes enn Claude i en krisesituasjon.

Det er kanskje den viktigste konklusjonen fra denne studien: forskjellene er store nok til å bety noe, og brukerne er ikke informert om dem.

Hva tenker du? Er dette noe AI-selskapene burde kommunisere tydeligere – eller er det brukerens ansvar å forstå hva slags verktøy de bruker?

Legg igjen en kommentar

Din e-postadresse vil ikke bli publisert. Obligatoriske felt er merket med *

Meld deg på nyhetsbrevet

Få oppdateringer om AI nyhetene rett i inboxen!

Du liker kanskje denne også
Jan Sverre med headphones og lydmikser i boardroom-møte med forvirrede executives

Suno AI Copyright 2026 – Opphavsrett og Rettigheter for AI-Musikk

Kan du tjene penger på Suno-musikk? Her er en praktisk gjennomgang av rettigheter, risiko og hva du bør avklare før publisering.
Jan Sverre riding a dinosaur in safari outfit, photorealistic AI-generated image demonstrating Nano Banana Pro capabilities

Jeg testet Nano Banana Pro: AI som faktisk skriver norsk i bilder

Endelig! En AI som kan generere norsk tekst i bilder med 94% nøyaktighet. Jeg testet Nano Banana Pro grundig – her er resultatene.
Jan Sverre tester GPT-5.2 ved en transparent OpenAI GPT-skjerm

GPT-5.2: Jeg testet OpenAIs nyeste modell – her er hva som faktisk fungerer

GPT-5.2 er ute med tre versjoner. Jeg har testet thinking-modellen, sammenlignet med 5.1, og funnet ut hva som faktisk er bedre. Her er mine erfaringer.
Jan Sverre profesjonelt fotograf-kvalitet portrett AI-generert bildegenerering

Google NotebookLM

Google NotebookLM er en AI-assistent som gjør dokumenter om til interaktive samtaler, studieguidere og podcasts på norsk. Nå drevet av Gemini 3 Pro med nye funksjoner som infographics, slide decks og Deep Research. Komplett guide til gratis vs. Plus-versjon.