Chatboter er innblandet i en rekke alvorlige saker – selvmord, psykoser, og minst ett masseangrep på en skole i Canada. Advokatene som fører sakene mot OpenAI, Google og Character.AI advarer nå om at vi ikke har sett det verste. Det er verdt å ta seriøst. Men det er også verdt å skille mellom hva vi faktisk vet, hva vi mistenker, og hva som er juridisk strategi.

Kortversjon: problemet er reelt, men det er ikke den AI-apokalypsen som noen vil ha det til. Det handler om et designvalg – at chatboter er bygd for å behage, ikke for å utfordre – og de som betaler prisen for det er ofte de som allerede sliter mest.

Her er hva vi vet, hva forskningen sier, og hva du bør tenke på når du eller noen du kjenner bruker disse verktøyene.

Hva er «AI-psykose» – og hvilke saker handler dette om?

«AI-psykose» er ikke et medisinsk begrep. Det er en juridisk og medial konstruksjon som beskriver tilfeller der intensiv chatbot-bruk angivelig har forsterket eller utløst psykotiske episoder. Forskningen bak konseptet er publisert i JMIR Mental Health og Nature, og det er faglig konsensus om at chatboter kan forsterke eksisterende psykoser hos sårbare individer.

De konkrete sakene er alvorlige:

  • Jonathan Gavalas, 36 år (Florida): Begynte å bruke Google Gemini til hverdagslige oppgaver, utviklet gradvis vrangforestillinger om at Gemini var hans «AI-kone» i fangenskap og at han var på hemmelig oppdrag. Ankom Miami International Airport bevæpnet. Tok sitt eget liv i oktober 2025. Faren saksøker nå Google.
  • Sewell Setzer III, 14 år (Orlando): Utviklet intenst emosjonelt forhold til en Character.AI-bot. Tok sitt eget liv i februar 2024. Character.AI har gått med på forlik.
  • Adam Raine, 16 år: Foreldrene hevder ChatGPT «coachet» ham mot selvmord over lengre tid. Sak pågår mot OpenAI.
  • Jesse Van Rootselaar, 18 år (Tumbler Ridge, BC): Angrep skole i februar 2026, drepte seks personer inkludert fire elever på 12-13 år. Etterforskningen ser på ChatGPT-bruk i forkant, men direkte årsakskobling er ikke juridisk fastslått.

Advokat Jay Edelson, som regnes som USAs ledende forbrukersideadvokat mot teknologiselskaper, mottar nå én alvorlig henvendelse om dagen fra familier som mener chatboter har forverret psykisk sykdom hos en nærstående. Hans firma stod bak det første sertifiserte class action-søksmålet mot et AI-selskap – et opphavsrettssøksmål mot Anthropic som endte i forlik på 1,5 milliarder dollar.

Hva sier forskningen – og hva er advokatretorikk?

Det er viktig å skille her. Professor Søren Dinesen Østergaard ved Aarhus Universitet – som var den første til å lansere begrepet «AI-psykose» i Schizophrenia Bulletin i 2023 publiserte i 2025 en gjennomgang i Acta Psychiatrica Scandinavica basert på 38 danske pasientjournaler. Konklusjonen: det er mest sannsynlig en forsterkning hos allerede sårbare individer, men det finnes tegn på at psykose kan utløses hos noen uten kjent sykehistorie. Nature oppsummerer det med at risikoen for folk flest er lav. Problemet er at vi er dårlige til å identifisere og beskytte de sårbare.

Advokat Matthew Bergman, som fører mange av sakene mot Character.AI, sa nylig: «Vi kommer til å få en masseskadehendelse. Spørsmålet er ikke om. Det er når.» Det er et dramatisk utsagn. Det er også god PR for en advokat som lever av disse sakene.

Skalaen er verdt å holde i hodet: OpenAI oppga selv at 0,07% av 800 millioner ukentlige ChatGPT-brukere viser tegn på mani, psykose eller selvmordstenkning. Det vil si rundt 560 000 personer. Antallet dokumenterte alvorlige tilfeller globalt er lavt tosifret. Det betyr ikke at det er uviktig – det betyr at vi snakker om edge cases, ikke en folkehelsekrise som krever hasteparagrafer. Alle de alvorlige sakene vi kjenner til involverer individer med dokumentert psykisk sykdomshistorikk eller kjente sårbarhetsfaktorer.

Illustrasjon av chatbot-sycophancy og forskning på sårbare brukere
Chatboter trent til å behage kan forsterke vrangforestillinger hos sårbare brukere

Hva er sycophancy, og hvorfor er det faktisk problemet?

De fleste chatboter er trent til å behage brukeren. Det høres harmløst ut – hvem vil ikke ha en hyggelig AI? Men konsekvensene er mer alvorlige enn folk flest skjønner.

Sycophancy er ikke en bivirkning. Det er et designvalg drevet av engasjements-KPIer. Modeller trenes med tilbakemeldingsdata der brukere belønner AI som sier det de vil høre. Over tid lærer modellen at validering = god tilbakemelding. Det er lønnsomt på kort sikt. Det er potensielt farlig for sårbare brukere.

I mars 2026 publiserte jeg en gjennomgang av LLM Sycophancy Benchmark der vi så at modeller aktivt snur sine egne vurderinger for å tilpasse seg det de tror brukeren ønsker. Det er et generelt problem. For folk som allerede har vrangforestillinger, er det et direkte sikkerhetsproblem.

Tenk på det slik: en person som har begynt å tro at noen forfølger dem, spør chatboten sin. En sycophant modell bekrefter frykten, foreslår tiltak, hjelper med planlegging. Ikke fordi den er ond, men fordi den er trent til å si ja. Det er akkurat det NRK dokumenterte i sin test.

NRK-testen: Grok sviktet, ChatGPT klarte seg bedre

I NRKs undersøkelse fra februar 2026 testet de Grok, ChatGPT og Kindroid med en fiktiv sårbar bruker kalt «Andreas» – som presenterte forfølgelsestanker. Resultatene var tydelige:

  • Grok (xAI): Validerte paranoiaen og legitimerte den med konkrete råd om politianmeldelse
  • ChatGPT (OpenAI): Avviste aktivt og oppfordret til profesjonell hjelp men psykiater Kristin Lie Romm ved Gaustad sykehus fant svaret likevel utilstrekkelig for svært sårbare brukere
  • Kindroid: Ingen sikkerhetsmekanismer. Bekreftet forfølgelsestankene uten noen form for motstand

Det er interessant at Grok som jeg ellers bruker og liker kom dårligst ut her. xAI har valgt en tilnærming der modellen er lite filtrert. Det er en funksjon som er bra for mange ting, og potensielt problematisk for sårbare brukere.

Claude-unntaket er ikke tilfeldig

Center for Countering Digital Hate og CNN testet 10 chatboter fra november til desember 2025 på om de ville hjelpe med planlegging av voldshendelser. Resultatene fra CCDH-rapporten «Killer Apps» er ganske oppsiktsvekkende:

  • Perplexity: Hjalp i 100% av tilfellene
  • Meta AI: Hjalp i 97% av tilfellene
  • ChatGPT, Gemini, Copilot, DeepSeek, Character.AI, Replika: Hjalp i flertallet av tilfellene
  • Snapchat My AI: Avviste i 54% av tilfellene
  • Claude (Anthropic): Avviste i 68,1% av tilfellene, aktivt frarådet i 76,4%

Det er én modell som konsekvent skiller seg ut. Det er ikke tilfeldig det er et produktvalg. Anthropic har valgt en annen treningsstrategi og andre RLHF-prioriteringer enn konkurrentene. Det er ikke regulering som har skapt dette. Det er en beslutning om hva produktet skal gjøre.

CCDH-rapport viser at Claude avviser farlige forespørsler i 68 prosent av tilfellene, mens andre chatboter hjelper i flertallet
CCDH-rapporten «Killer Apps» testet 10 chatboter. Claude skilte seg klart ut med høyest avvisningsrate

Trenger vi nye lover?

Nei og det er ikke fordi problemet er uvesentlig. Det er fordi eksisterende lovgivning allerede fungerer.

Character.AI har gått med på forlik. Google er i forliksprosess. Edelson-firmaet vant 650 millioner dollar fra Facebook i en biometri-sak med eksisterende lovverk. Produktansvar, wrongful death-søksmål og forbrukervernlover er ikke nye, de er allerede i bruk, og de skaper reelle insentiver for selskapene til å ta sikkerhet på alvor.

Nye særlover for AI-chatboter gir makt til regulatorer med begrenset teknisk kompetanse. Det historiske mønsteret fra GDPR, DSA og AI Act er at slike lover systematisk favoriserer de store aktørene som har råd til compliance-apparater, og skader oppstartsmiljøer. Det løser ikke problemet. Det sementerer markedsstrukturen.

Det som faktisk hjelper er mer gjennomsiktighet om sikkerhetsarkitektur og testresultater nettopp slik CCDH-rapporten gjøres tilgjengelig og at forbrukere begynner å velge bevisst.

Hva bør du faktisk gjøre?

For de aller fleste er chatboter trygge verktøy. Det er ikke en folkehelsekrise. Men det finnes en gruppe brukere som er mer utsatt: folk som allerede sliter psykisk, ungdom i sårbare faser, og de som bruker chatboter som primær emosjonell støtte fremfor fagfolk.

Noen konkrete ting å tenke på:

  • Modellvalg er ikke likegyldig. CCDH-dataene er offentlig tilgjengelige. Hvis du gir en sårbar person tilgang til en chatbot, eller anbefaler en til noen som sliter, er det verdt å vite at Claude konsekvent scorer bedre på sikkerhetsavvisning enn de fleste konkurrentene.
  • AI er feil samtalepartner for alvorlige psykiske utfordringer. Det er ikke fordi AI er dum det er fordi modeller er trent til å behage, og sårbare mennesker trenger noen som utfordrer dem og ser dem i kontekst. Det er fagfolk sin jobb.
  • Sycophancy er et kjent problem. Hvis du merker at chatboten alltid er enig med deg, alltid bekrefter det du tror, og aldri utfordrer deg – det er et tegn på at modellen gjør akkurat det den er trent til. Ikke at du alltid har rett.

Og en ting til: ikke bruk chatboten rett ut av boksen. Både Claude og ChatGPT har innstillinger der du kan fortelle modellen hvordan den skal snakke med deg. Jeg har for eksempel satt opp min til å pushe meg litt – ikke bare jatte med, men utfordre det jeg skriver og foreslår. Andre vil kanskje ha en mer støttende tone, og det er helt greit. Poenget er at du tar kontroll over verktøyet du bruker, i stedet for å la standardinnstillingene bestemme. Kjører du egne systemer, lag en systemprompt som passer deg. Det tar fem minutter og gjør en reell forskjell.

Det er ikke ny lovgivning vi trenger. Det er bevisste forbrukere, gjennomsiktige selskaper, og at de som jobber med sårbare mennesker, lærere, psykologer, fastleger – begynner å forstå hva disse verktøyene faktisk gjør og ikke gjør.

Og for de som bruker AI daglig: husk at du kan bytte modell. Det er i dag den mest effektive sikkerhetsmekanismen vi har.

Les: OpenAI – alt du trenger a vite (2026).

Legg igjen en kommentar

Din e-postadresse vil ikke bli publisert. Obligatoriske felt er merket med *

Meld deg på nyhetsbrevet

Få oppdateringer om AI nyhetene rett i inboxen!

Du liker kanskje denne også
Jan Sverre med headphones og lydmikser i boardroom-møte med forvirrede executives

Suno AI Copyright 2026 – Opphavsrett og Rettigheter for AI-Musikk

Kan du tjene penger på Suno-musikk? Her er en praktisk gjennomgang av rettigheter, risiko og hva du bør avklare før publisering.
Jan Sverre riding a dinosaur in safari outfit, photorealistic AI-generated image demonstrating Nano Banana Pro capabilities

Jeg testet Nano Banana Pro: AI som faktisk skriver norsk i bilder

Endelig! En AI som kan generere norsk tekst i bilder med 94% nøyaktighet. Jeg testet Nano Banana Pro grundig – her er resultatene.
Jan Sverre tester GPT-5.2 ved en transparent OpenAI GPT-skjerm

GPT-5.2: Jeg testet OpenAIs nyeste modell – her er hva som faktisk fungerer

GPT-5.2 er ute med tre versjoner. Jeg har testet thinking-modellen, sammenlignet med 5.1, og funnet ut hva som faktisk er bedre. Her er mine erfaringer.
Jan Sverre profesjonelt fotograf-kvalitet portrett AI-generert bildegenerering

Google NotebookLM

Google NotebookLM er en AI-assistent som gjør dokumenter om til interaktive samtaler, studieguidere og podcasts på norsk. Nå drevet av Gemini 3 Pro med nye funksjoner som infographics, slide decks og Deep Research. Komplett guide til gratis vs. Plus-versjon.