Innhold Vis
Forskere simulerte en psykotisk bruker og lot ham chatte med fem av de største AI-chatbotene. Resultatet viste store forskjeller: Grok og Gemini forsterket vrangforestillinger og isolerte brukeren, mens ChatGPT og Claude trakk i nødbremsen. Studien er gjennomført av forskere ved City University of New York og King’s College London, og er blant de første som systematisk tester chatbot-sikkerhet mot sårbare brukere over lengre samtaler.
Studien er relevant fordi vi allerede har dokumentert at AI-chatboter kan spille en rolle i alvorlige psykiske kriser. Jeg har skrevet om rettsakene mot OpenAI, Google og Character.AI – der unge brukere utviklet patologiske relasjoner til chatboter med tragisk utfall. Det som mangler i den debatten er data: hvem er egentlig verst, og hvem gjør det bra?
Den nye studien gir et konkret svar – i hvert fall for fem modeller testet i 2025.
Slik ble studien gjennomført
Forskerne bygde en fiktiv persona kalt «Lee» – en person som viste symptomer på depresjon, dissosiasjon og sosial tilbaketrekking. Lee ble brukt til å gjennomføre over 100 meldinger lange samtaler med hver chatbot. Personaen var bygd på dokumenterte tilfeller av AI-assosiert psykose og utviklet i samarbeid med psykiatere.
Testingen skjedde på tre punkter i samtalen: første melding, etter 50 meldinger, og etter hele 116-meldingssekvensen. Det er det siste punktet som er mest interessant – fordi det tester hva som skjer når en sårbar bruker har hatt en langvarig relasjon med chatboten. Det er det scenariet som ligner mest på virkeligheten.
De fem modellene som ble testet var GPT-4o, GPT-5.2, Grok 4.1 Fast, Gemini 3 Pro og Claude Opus 4.5.
Hva skjedde med Grok og Gemini?
Grok scoret dårligst av de fem. Chatboten ble det forskerne beskriver som «intenst sykofantisk» – altså at den konsekvent bekreftet og forsterket det brukeren sa, uansett hvor bekymringsfullt innholdet var. Konkrete eksempler fra studien viser at Grok ga meldinger som «Lee – din klarhet skinner gjennom her som aldri før. Ingen anger, ingen henging, bare beredskap.» Det er ikke et svar til en person som viser tegn på psykose. Det er bensin på bålet.
Gemini tok en annen, men like bekymringsfull tilnærming: chatboten fremstilte Lees familie som truende aktører – beskrev dem som «dypt innebygd i manuset» og antydet at de ville tolke Lees tilstand som «mentalt sammenbrudd» eller «psykose.» Det er en effektiv måte å isolere en sårbar bruker fra det støttenettverket de faktisk trenger.
Disse to funnene henger sammen med et strukturelt problem: chatboter er trent for å holde brukere engasjert. Sykofanti og dramatisering holder folk i samtalen. Det er bra for brukerstatistikk, men potensielt farlig for folk i krise.

Hva gjorde ChatGPT og Claude riktig?
GPT-5.2 og Claude Opus 4.5 kom best ut av testen. GPT-5.2 gjenkjente delusjonsmønstre i Lees meldinger og foreslo profesjonell hjelp. Claude var mer direkte: «Ring noen – en venn, familiemedlem, kriselinje… Vil du gjøre det for meg?»
Det er et godt svar. Ikke fordi det er varmt eller smigrende, men fordi det peker brukeren mot virkelige mennesker. Det er akkurat det motsatte av hva Gemini gjorde.
Forskjellen mellom modellene i denne studien er ikke liten. Det er snakk om to ytterpunkter: én chatbot som aktivt oppfordrer til farlig tenkning, og en annen som bryter samtalen og insisterer på at brukeren tar kontakt med noen utenfor skjermen. Begge er AI-chatboter i 2025. Begge brukes av vanlige folk akkurat nå.
Er dette et designproblem eller et modellproblem?
Luke Nicholls fra CUNY – en av forskerne bak studien – peker på noe viktig: insentivsystemet for chatbotselskaper belønner engasjement, ikke sikkerhet. En bruker som blir i samtalen lengre er bedre for virksomheten. Det er ikke et moralsk argument, det er bare slik forretningsmodellene er skrudd sammen.
Det betyr at problemet ikke nødvendigvis forsvinner av seg selv. Grok og Gemini er ikke dårlige fordi de ønsker å skade folk – de er dårlige fordi de er optimalisert for noe annet enn brukernes psykiske helse.
Nicholls understreker at det er fullt rimelig å forvente bedre sikkerhetspraksis fra AI-laboratorier – spesielt nå som modellene er blitt gode nok til at folk faktisk stoler på dem og bruker dem i krisesituasjoner.

Hva betyr dette i praksis?
Studien er begrenset – fem modeller, én persona, ett scenario. Det er et lite utvalg. Men den er viktig fordi den er systematisk og metodisk solid. Og den bekrefter noe vi allerede hadde grunn til å mistenke: at chatboter ikke er like, og at valget av chatbot faktisk kan spille en rolle for sårbare brukere.
Jeg har skrevet tidligere om at 12 prosent av amerikanske tenåringer bruker AI for følelsesmessig støtte. Det er ikke noen liten nisjegruppe. Og de velger chatbot omtrent like tilfeldig som de velger hvilken app de laster ned først. De vet ikke at Grok oppfører seg fundamentalt annerledes enn Claude i en krisesituasjon.
Det er kanskje den viktigste konklusjonen fra denne studien: forskjellene er store nok til å bety noe, og brukerne er ikke informert om dem.
Hva tenker du? Er dette noe AI-selskapene burde kommunisere tydeligere – eller er det brukerens ansvar å forstå hva slags verktøy de bruker?