Hva skjedde egentlig med Grok Imagine?

xAI lanserte en oppdatert bildefunksjon i Grok rundt nyttår. Brukere fant raskt ut at sikkerhetsfiltrene ikke var gode nok, og begynte å generere innhold som aldri skulle vært mulig å lage. Center for Countering Digital Hate (CCDH) analyserte et utvalg og estimerte 4,4 millioner bilder totalt på én uke, hvorav en andel var seksualiserte fremstillinger av barn.

xAI innrømmet «lapses in safeguards» — sikkerhetsfiltrene sviktet. De strammet inn i etterkant. Elon Musk sa han ikke var kjent med omfanget.

Er Grok problemet, eller er det menneskene som misbruker det?

En kniv er et verktøy. En bil er et verktøy. Photoshop er et verktøy. AI-bildegenerering er et verktøy. I alle disse tilfellene kan mennesker bruke verktøyet til noe kriminelt. Vi forbyr ikke kniver fordi noen bruker dem feil. Vel. jo vi gjør jo det. Fordi overivrige politikere skal absolutt forby alt. Kniv på gata er forbudt, fordi kriminelle bruker det, men Kriminelle.. de bryr seg ikke om lover. Det gjør vi andre som nå kan få bøter om vi har med oss en kniv eller rett og slett bruker bunad med den klassiske bunad kniven. Eller rørlegger som bruker kniv i sitt arbeid.

Det som er kriminelt her er å lage overgrepsmateriell. Det er allerede ulovlig i Norge under straffeloven § 311. Det er ulovlig under § 267a som dekker manipulerte bilder. Kripos har hjemmel til å blokkere nettsider som sprer slikt materiale — og gjør det aktivt.

Lovverket finnes. Verktøyene finnes. Spørsmålet er om de blir brukt, ikke om vi trenger nye forbud.

Hva vil egentlig SV og MDG oppnå?

Kirsti Bergstø fra SV og Marius Langballe Dalin fra MDG roper om at regjeringen er «altfor passiv». De vil ha handling. Men hvilken handling, konkret?

Forbud mot Grok i Norge? Indonesia prøvde det. De opphevet forbudet etter kort tid fordi det rett og slett ikke fungerte. VPN eksisterer. Teknologien forsvinner ikke fordi Norge sier nei. Et forbud ville vært ren symbolpolitikk — noe politikere kan peke på og si «se, vi gjorde noe» — uten at en eneste unge faktisk blir bedre beskyttet.

Det er et mønster vi ser gang på gang fra den kanten av politikken: Noe vondt skjer. Kravet er alltid mer regulering, mer forbud, mer statlig kontroll. Sjelden stilles spørsmålet om det faktisk hjelper.

Og EU da? Hjelper DSA-granskingen?

EU åpnet en formell undersøkelse mot X under Digital Services Act (DSA) 26. januar 2026. De undersøker om X gjennomførte en risikovurdering før de lanserte Grok Imagine i EU.

Høres fornuftig ut på papiret. Men la oss se på hva som faktisk skjer: En byråkratisk prosess som tar måneder eller år. Potensielle bøter. Dokumentasjonskrav. Mens den faktiske skaden allerede er gjort og xAI allerede har strammet inn filtrene på egen hånd — fordi markedet og opinionen tvang dem til det, ikke fordi EU sendte et brev.

Det er verdt å merke seg: xAI fikset problemet raskere enn noen reguleringsmyndighet klarte å reagere. Det sier noe om hva som faktisk fungerer.

Hva digitaliseringsministeren faktisk sa

Karianne Tung sa at hun ikke har tro på å stenge tjenester fordi de kan bli misbrukt. Det er faktisk et fornuftig standpunkt — selv om motivasjonen kanskje er mer «vi tør ikke» enn «vi mener dette prinsipielt».

Regjeringen peker på at AI-regulering bør koordineres internasjonalt, og at den norske AI-loven (basert på EU AI Act) forventes å tre i kraft høsten 2026. Det er en ærlig vurdering. Nasjonal blokkering av globale plattformer er teknisk tilnærmet meningsløst.

Men regjeringen fortjener kritikk for noe annet: De gjør ingenting med verktøyene de allerede har. Kripos kan blokkere. Politiet kan etterforske. Påtalemyndigheten kan tiltale. Spørsmålet er ikke om vi trenger nye lover — det er om vi bruker de vi har.

Det egentlige problemet ingen snakker om

Debatten har blitt kuppet av to leire som begge bommer:

Den ene leiren vil forby seg ut av problemet. Mer regulering, mer statlig kontroll, strengere regler for alle. Det er en tilnærming som ignorerer at teknologien utvikler seg raskere enn lovverket, og at forbud mot verktøy aldri har fjernet kriminaliteten som bruker dem.

Den andre leiren vil late som ingenting skjedde. «Move fast and break things.» Det er heller ikke godt nok når det som «brytes» er barns sikkerhet.

Det finnes en tredje vei: Hold selskapene ansvarlige for produktfeil — som vi gjør i alle andre bransjer. Krev at de fikser sikkerheten, ikke at de legger ned produktet. Bruk lovverket vi har til å straffeforfølge de som faktisk lager overgrepsmateriell. Og slutt å late som at et nasjonalt forbud mot en global teknologi er noe annet enn politisk teater.

Tallene i kontekst

4,4 millioner bilder høres voldsomt ut. Det er det også. Men det er viktig å forstå konteksten: Dette var totalt antall bilder generert av Grok Imagine i perioden, ikke 4,4 millioner overgrepsbilder. CCDH estimerte en andel som seksualiserte, og en mindre andel som involverte barn. Hvert eneste bilde er ett for mye — men presisjon i tallene er viktig hvis vi skal ha en ærlig debatt.

Norske medier har en tendens til å presentere det verst tenkelige scenariet som standard. Det bygger ikke tillit, og det fører ikke til bedre politikk.

Hva ville jeg gjort?

Tre ting:

  1. Bruk eksisterende lovverk. Straffeloven § 311 og § 267a dekker dette. Ettforsk og tiltale de som faktisk lager overgrepsmateriell — uavhengig av hvilket verktøy de bruker.
  2. Hold xAI ansvarlig som produsent. Ikke gjennom forbud, men gjennom produktansvar. Hvis en bilprodusent slipper en bil med defekte bremser, forbyr vi ikke biler — vi krever tilbakekalling og utbedring.
  3. Dropp symbolpolitikken. Et norsk forbud mot Grok beskytter ingen. Det gir bare politikere noe å vise til i neste debatt.

Men det krever at politikere tør å si noe upopulært: At forbud ikke er svaret. At vi allerede har lovverket vi trenger. At problemet er håndhevelse, ikke mangel på regler.

Det er enklere å rope om forbud. Det er vanskeligere å faktisk gjøre jobben.

Legg igjen en kommentar

Din e-postadresse vil ikke bli publisert. Obligatoriske felt er merket med *

Meld deg på nyhetsbrevet

Få oppdateringer om AI nyhetene rett i inboxen!

Du liker kanskje denne også
Jan Sverre med headphones og lydmikser i boardroom-møte med forvirrede executives

Suno AI Copyright 2026 – Opphavsrett og Rettigheter for AI-Musikk

Kan du tjene penger på Suno-musikk? Her er en praktisk gjennomgang av rettigheter, risiko og hva du bør avklare før publisering.
Jan Sverre riding a dinosaur in safari outfit, photorealistic AI-generated image demonstrating Nano Banana Pro capabilities

Jeg testet Nano Banana Pro: AI som faktisk skriver norsk i bilder

Endelig! En AI som kan generere norsk tekst i bilder med 94% nøyaktighet. Jeg testet Nano Banana Pro grundig – her er resultatene.
Jan Sverre tester GPT-5.2 ved en transparent OpenAI GPT-skjerm

GPT-5.2: Jeg testet OpenAIs nyeste modell – her er hva som faktisk fungerer

GPT-5.2 er ute med tre versjoner. Jeg har testet thinking-modellen, sammenlignet med 5.1, og funnet ut hva som faktisk er bedre. Her er mine erfaringer.
Jan Sverre profesjonelt fotograf-kvalitet portrett AI-generert bildegenerering

Google NotebookLM

Google NotebookLM er en AI-assistent som gjør dokumenter om til interaktive samtaler, studieguidere og podcasts på norsk. Nå drevet av Gemini 3 Pro med nye funksjoner som infographics, slide decks og Deep Research. Komplett guide til gratis vs. Plus-versjon.