OpenAI lanserte GPT Images 2 den 21. april 2026. Dagen etter satte jeg meg ned og kjørte 28 tester for å finne ut hva modellen faktisk gjør bra, hvor den faller igjennom, og hvordan den stiller seg mot Nano Banana 2, Flux og Midjourney på pris og kvalitet. Her er funnene.

Hva er GPT Images 2, teknisk sett?

Forgjengeren het GPT-Image-1 og var i praksis DALL-E 3 med et nytt navn. GPT Images 2 er noe annet. Modellen bruker et «visual reasoning»-prinsipp – den genererer interne skisser, evaluerer dem mot prompten, og justerer før den leverer endelig output. Samme chain-of-thought-mekanikk som o1 og o3 bruker for tekst, overført til bilder.

I praksis betyr det at modellen er tregere enn konkurrenter på samme oppgave – 40-60 sekunder for high-quality, 15-25 for medium. Nano Banana 2 leverer tilsvarende oppløsning på 5-8 sekunder. Så du betaler hastighet for det OpenAI kaller «resonnering».

Spesifikasjonene: oppløsning opptil 3840 piksler på lengste side, aspect ratio opp til 3:1, støtte for opptil 16 referansebilder i én request, tre kvalitetsnivåer (low/medium/high), fire utdata-formater (png/jpeg/webp). Tilgjengelig via OpenAIs egen API og tredjepartsleverandører som Replicate og fal.ai.

Hva klarer den veldig bra?

Typografi og tekst i bilder. Dette er modellens klareste styrke. Jeg testet med en enkel prompt som ba om en plakat med overskriften «GPT IMAGES 2» og undertekst «TESTET PÅ JANSVERRE.NET» i serif-font. Resultatet har presis kerning, korrekt norsk Å, og ingen av de tilfeldige bokstavene modeller ofte produserer når de simulerer tekst. Samme test med Nano Banana 2 ga greit resultat i enkle tilfeller, men begynte å slite så snart jeg ba om tett sats eller spesielle fontstiler.

OpenAI hevder 99% nøyaktighet på tekst-rendering, inkludert ikke-latinske skrifter. I mine tester holdt det stikk for norsk, engelsk og enkle japanske tegn. Til sammenligning brukte Nano Banana Pro flere forsøk for å treffe norske tegn konsekvent. Dette er et reelt fremskritt.

Multi-referanse fungerer. En av testene mine kombinerte to referansebilder i samme request: ett portrett og ett landskapsbilde av Smedasundet i Haugesund. Modellen komponerte disse sammen til ett sammenhengende bilde der personens ansiktstrekk ble bevart og det gjenkjennelige bylandskapet ble bakgrunn. Dette fungerer også med opptil 16 referanser samtidig ifølge API-spesifikasjonen – jeg testet bare med 2.

Kinematisk komposisjon og lys. Særlig på fantasi- og sci-fi-scener leverer modellen noe som ligner på filmproduksjon. Et testbilde av et piratslag med to skip i storm kom ut med dramatisk lyn, dybdeskarphet og perfekt lysetting fra én enkelt prompt. Samme kvalitetsnivå på Viking-scener og vinterlandskap. Det er ikke overraskende at modellen leverer dette – OpenAI har trent på enorme mengder filmreferanser – men det er kvalitet du vanligvis må til Midjourney for.

Konsistent serie-generering. API-et støtter opptil fire bilder per request med samme karakter eller objekt. Nyttig for storyboard, produktserier eller sosiale medier-sett. Jeg testet ikke dette fullt ut i denne omgangen, men funksjonaliteten er dokumentert og reell.

Hva sliter den med?

Estetikk uten sjel. Kritikken fra kunst-communities er at GPT Images 2 produserer bilder som ser «for perfekte» ut – stock-foto-lignende, polerte, uten tekstur og karakter. Jeg forstår hva de mener. Midjourney leverer bilder med mer kunstnerisk særpreg, Flux har mer fotografisk råhet. GPT Images 2 leverer profesjonell polering. For blogg-bilder og kommersielt bruk er det en styrke. For konseptkunst eller fantasy-covers er det en svakhet.

Content policy som blokkerer legitime prompts. Dette er den klareste praktiske svakheten. OpenAI har bransjens strengeste filtre, og de treffer ofte for bredt. Tre av fire testprompts som inneholdt ord som «tight» eller «form-fitting» om en fiktiv yrkesperson ble avvist med HTTP 422 – selv når konteksten var helt nøytral (arbeidsklær, sportsutstyr). Omformulering til «elegant business attire» og «fitted athletic wear» slapp gjennom. Du må regne med å omformulere prompter som ingen andre modeller ville reagert på.

I tillegg: offentlige personer kan ikke genereres, alle bilder vannmerkes usynlig, og medisinsk bildemateriale utløser ofte filtre. Sammenlignet med Nano Banana 2 og særlig Flux er GPT Images 2 betydelig mer restriktiv.

Hastighet. 40-60 sekunder på high er treigt i 2026-kontekst. Hvis du genererer i iterative sløyfer (prompt, justér, prompt igjen) blir ventetiden merkbar raskt.

Prising – hvor mange bilder får du for pengene?

GPT Images 2 har tre kvalitetsnivåer med ulik prising per bilde:

  • Low: ca. $0,006 – $0,01
  • Medium: ca. $0,04 – $0,06
  • High: ca. $0,21 – $0,25

For å gjøre det konkret – hva får du faktisk for pengene?

Modell / nivåPris per bildeBilder for $5Bilder for $10Bilder for $20
GPT Images 2 (low)~$0,0086251 2502 500
GPT Images 2 (medium)~$0,05100200400
GPT Images 2 (high)~$0,23214386
Nano Banana 2 (flat)$0,0862125250
Flux 1.1 Pro~$0,04125250500
Flux 1.1 Pro Ultra~$0,0683166333
Midjourney v7 (Basic plan)~$0,033 (~200 bilder/mnd for $10)150300600

Tallene viser noe som overrasket meg: GPT Images 2 er faktisk billigere enn Nano Banana 2 på både low og medium. På medium ($0,05) er den til og med litt billigere enn NB2 ($0,08 flat), og kvaliteten på medium er god nok for de fleste bloggbilder og sosiale medier. På low er den ti ganger billigere – men low er bare brukbart for prototyping.

Premien kommer først på high-kvalitet ($0,23) – der er GPT Images 2 nesten tre ganger dyrere enn NB2 og fire ganger dyrere enn Flux 1.1 Pro. Så historien er ikke «GPT Images 2 er dyrere», men «GPT Images 2 har et premium-nivå som NB2 ikke har». Du velger nivå etter behov.

Mine 28 testbilder på medium-kvalitet kostet totalt rundt $1,40. Det er en grei pris for en skikkelig runde med modellen.

Hvor passer den inn?

Nano Banana 2 forblir default-valget for de fleste oppgaver: $0,08 flat, rask generering, god tekst-håndtering i de fleste tilfeller, åpen content policy. For 80% av bildebehov er det fortsatt riktig verktøy.

GPT Images 2 har en tydelig nisje:

  • Plakater, avisforsider, infografika med presis norsk typografi
  • Multi-referanse-komposisjon (kombiner flere bilder til ett)
  • Kinematisk lysetting og komposisjon som NB2 ikke alltid treffer på
  • Konsistent serie-generering av samme karakter

For alt annet – enkle produktbilder, rask iterasjon, kreativ fantasy-stil, eller prompts som kan trigge content policy – er andre alternativer bedre. Flux om du vil ha fotografisk realisme. Midjourney om du vil ha kunstnerisk karakter. Nano Banana 2 om du vil ha hastighet og grei pris på generelle bilder.

Historisk kontekst: jeg skrev om de lekkede modellene Chestnut og Hazelnut i desember 2025. GPT Images 2 ble det endelige produktet av det arbeidet.

GPT Images 2 er et spesialverktøy. Ikke en erstatning for det du allerede bruker, men et tillegg du tar frem når oppgaven passer modellens styrker. Testet selv – det er den klareste måten å finne ut om den hører hjemme i din verktøykasse.

Legg igjen en kommentar

Din e-postadresse vil ikke bli publisert. Obligatoriske felt er merket med *

Meld deg på nyhetsbrevet

Få oppdateringer om AI nyhetene rett i inboxen!

Du liker kanskje denne også
Jan Sverre arbeider med Suno AI musikk-generering på datamaskinen, kreativt workspace med hodetelefoner

Suno AI – 150 Låter Testet: Hva Funker og Hva Er Bortkastet Tid

Jeg testet 150 Suno-låter og fant tydelige mønstre. Her er hva som faktisk gir kvalitet, og hva som bare kaster bort tid.
Jan Sverre med headphones og lydmikser i boardroom-møte med forvirrede executives

Suno AI Copyright 2026 – Opphavsrett og Rettigheter for AI-Musikk

Kan du tjene penger på Suno-musikk? Her er en praktisk gjennomgang av rettigheter, risiko og hva du bør avklare før publisering.
Jan Sverre riding a dinosaur in safari outfit, photorealistic AI-generated image demonstrating Nano Banana Pro capabilities

Jeg testet Nano Banana Pro: AI som faktisk skriver norsk i bilder

Endelig! En AI som kan generere norsk tekst i bilder med 94% nøyaktighet. Jeg testet Nano Banana Pro grundig – her er resultatene.
Jan Sverre tester GPT-5.2 ved en transparent OpenAI GPT-skjerm

GPT-5.2: Jeg testet OpenAIs nyeste modell – her er hva som faktisk fungerer

GPT-5.2 er ute med tre versjoner. Jeg har testet thinking-modellen, sammenlignet med 5.1, og funnet ut hva som faktisk er bedre. Her er mine erfaringer.