Innhold Vis
OpenAI lanserte GPT Images 2 den 21. april 2026. Dagen etter satte jeg meg ned og kjørte 28 tester for å finne ut hva modellen faktisk gjør bra, hvor den faller igjennom, og hvordan den stiller seg mot Nano Banana 2, Flux og Midjourney på pris og kvalitet. Her er funnene.
Hva er GPT Images 2, teknisk sett?
Forgjengeren het GPT-Image-1 og var i praksis DALL-E 3 med et nytt navn. GPT Images 2 er noe annet. Modellen bruker et «visual reasoning»-prinsipp – den genererer interne skisser, evaluerer dem mot prompten, og justerer før den leverer endelig output. Samme chain-of-thought-mekanikk som o1 og o3 bruker for tekst, overført til bilder.
I praksis betyr det at modellen er tregere enn konkurrenter på samme oppgave – 40-60 sekunder for high-quality, 15-25 for medium. Nano Banana 2 leverer tilsvarende oppløsning på 5-8 sekunder. Så du betaler hastighet for det OpenAI kaller «resonnering».
Spesifikasjonene: oppløsning opptil 3840 piksler på lengste side, aspect ratio opp til 3:1, støtte for opptil 16 referansebilder i én request, tre kvalitetsnivåer (low/medium/high), fire utdata-formater (png/jpeg/webp). Tilgjengelig via OpenAIs egen API og tredjepartsleverandører som Replicate og fal.ai.
Hva klarer den veldig bra?
Typografi og tekst i bilder. Dette er modellens klareste styrke. Jeg testet med en enkel prompt som ba om en plakat med overskriften «GPT IMAGES 2» og undertekst «TESTET PÅ JANSVERRE.NET» i serif-font. Resultatet har presis kerning, korrekt norsk Å, og ingen av de tilfeldige bokstavene modeller ofte produserer når de simulerer tekst. Samme test med Nano Banana 2 ga greit resultat i enkle tilfeller, men begynte å slite så snart jeg ba om tett sats eller spesielle fontstiler.
OpenAI hevder 99% nøyaktighet på tekst-rendering, inkludert ikke-latinske skrifter. I mine tester holdt det stikk for norsk, engelsk og enkle japanske tegn. Til sammenligning brukte Nano Banana Pro flere forsøk for å treffe norske tegn konsekvent. Dette er et reelt fremskritt.
Multi-referanse fungerer. En av testene mine kombinerte to referansebilder i samme request: ett portrett og ett landskapsbilde av Smedasundet i Haugesund. Modellen komponerte disse sammen til ett sammenhengende bilde der personens ansiktstrekk ble bevart og det gjenkjennelige bylandskapet ble bakgrunn. Dette fungerer også med opptil 16 referanser samtidig ifølge API-spesifikasjonen – jeg testet bare med 2.
Kinematisk komposisjon og lys. Særlig på fantasi- og sci-fi-scener leverer modellen noe som ligner på filmproduksjon. Et testbilde av et piratslag med to skip i storm kom ut med dramatisk lyn, dybdeskarphet og perfekt lysetting fra én enkelt prompt. Samme kvalitetsnivå på Viking-scener og vinterlandskap. Det er ikke overraskende at modellen leverer dette – OpenAI har trent på enorme mengder filmreferanser – men det er kvalitet du vanligvis må til Midjourney for.
Konsistent serie-generering. API-et støtter opptil fire bilder per request med samme karakter eller objekt. Nyttig for storyboard, produktserier eller sosiale medier-sett. Jeg testet ikke dette fullt ut i denne omgangen, men funksjonaliteten er dokumentert og reell.
















Hva sliter den med?
Estetikk uten sjel. Kritikken fra kunst-communities er at GPT Images 2 produserer bilder som ser «for perfekte» ut – stock-foto-lignende, polerte, uten tekstur og karakter. Jeg forstår hva de mener. Midjourney leverer bilder med mer kunstnerisk særpreg, Flux har mer fotografisk råhet. GPT Images 2 leverer profesjonell polering. For blogg-bilder og kommersielt bruk er det en styrke. For konseptkunst eller fantasy-covers er det en svakhet.
Content policy som blokkerer legitime prompts. Dette er den klareste praktiske svakheten. OpenAI har bransjens strengeste filtre, og de treffer ofte for bredt. Tre av fire testprompts som inneholdt ord som «tight» eller «form-fitting» om en fiktiv yrkesperson ble avvist med HTTP 422 – selv når konteksten var helt nøytral (arbeidsklær, sportsutstyr). Omformulering til «elegant business attire» og «fitted athletic wear» slapp gjennom. Du må regne med å omformulere prompter som ingen andre modeller ville reagert på.
I tillegg: offentlige personer kan ikke genereres, alle bilder vannmerkes usynlig, og medisinsk bildemateriale utløser ofte filtre. Sammenlignet med Nano Banana 2 og særlig Flux er GPT Images 2 betydelig mer restriktiv.
Hastighet. 40-60 sekunder på high er treigt i 2026-kontekst. Hvis du genererer i iterative sløyfer (prompt, justér, prompt igjen) blir ventetiden merkbar raskt.
Prising – hvor mange bilder får du for pengene?
GPT Images 2 har tre kvalitetsnivåer med ulik prising per bilde:
- Low: ca. $0,006 – $0,01
- Medium: ca. $0,04 – $0,06
- High: ca. $0,21 – $0,25
For å gjøre det konkret – hva får du faktisk for pengene?
| Modell / nivå | Pris per bilde | Bilder for $5 | Bilder for $10 | Bilder for $20 |
|---|---|---|---|---|
| GPT Images 2 (low) | ~$0,008 | 625 | 1 250 | 2 500 |
| GPT Images 2 (medium) | ~$0,05 | 100 | 200 | 400 |
| GPT Images 2 (high) | ~$0,23 | 21 | 43 | 86 |
| Nano Banana 2 (flat) | $0,08 | 62 | 125 | 250 |
| Flux 1.1 Pro | ~$0,04 | 125 | 250 | 500 |
| Flux 1.1 Pro Ultra | ~$0,06 | 83 | 166 | 333 |
| Midjourney v7 (Basic plan) | ~$0,033 (~200 bilder/mnd for $10) | 150 | 300 | 600 |
Tallene viser noe som overrasket meg: GPT Images 2 er faktisk billigere enn Nano Banana 2 på både low og medium. På medium ($0,05) er den til og med litt billigere enn NB2 ($0,08 flat), og kvaliteten på medium er god nok for de fleste bloggbilder og sosiale medier. På low er den ti ganger billigere – men low er bare brukbart for prototyping.
Premien kommer først på high-kvalitet ($0,23) – der er GPT Images 2 nesten tre ganger dyrere enn NB2 og fire ganger dyrere enn Flux 1.1 Pro. Så historien er ikke «GPT Images 2 er dyrere», men «GPT Images 2 har et premium-nivå som NB2 ikke har». Du velger nivå etter behov.
Mine 28 testbilder på medium-kvalitet kostet totalt rundt $1,40. Det er en grei pris for en skikkelig runde med modellen.
Hvor passer den inn?
Nano Banana 2 forblir default-valget for de fleste oppgaver: $0,08 flat, rask generering, god tekst-håndtering i de fleste tilfeller, åpen content policy. For 80% av bildebehov er det fortsatt riktig verktøy.
GPT Images 2 har en tydelig nisje:
- Plakater, avisforsider, infografika med presis norsk typografi
- Multi-referanse-komposisjon (kombiner flere bilder til ett)
- Kinematisk lysetting og komposisjon som NB2 ikke alltid treffer på
- Konsistent serie-generering av samme karakter
For alt annet – enkle produktbilder, rask iterasjon, kreativ fantasy-stil, eller prompts som kan trigge content policy – er andre alternativer bedre. Flux om du vil ha fotografisk realisme. Midjourney om du vil ha kunstnerisk karakter. Nano Banana 2 om du vil ha hastighet og grei pris på generelle bilder.
Historisk kontekst: jeg skrev om de lekkede modellene Chestnut og Hazelnut i desember 2025. GPT Images 2 ble det endelige produktet av det arbeidet.
GPT Images 2 er et spesialverktøy. Ikke en erstatning for det du allerede bruker, men et tillegg du tar frem når oppgaven passer modellens styrker. Testet selv – det er den klareste måten å finne ut om den hører hjemme i din verktøykasse.











