OpenAI tok Anthropics 200 millioner dollar-kontrakt med Pentagon — og fikk 295 prosent flere avinstallinger av ChatGPT som takk. Det er der vi er nå. Forsvarsavtaler, AI-etikk og brukerreaksjoner har blitt sammenvevd på måter ingen forutså for bare noen måneder siden.

Pentagon erklærte formelt Anthropic som en «supply-chain risk» etter at forhandlingene om en 200 millioner dollar-kontrakt brøt sammen. Kjernen i konflikten: militæret ville ha mer kontroll over AI-modellene — inkludert bruk i autonome våpen og masseovervåking av amerikanske borgere. Anthropic sa nei. Kontrakten gikk til OpenAI, som sa ja.

Det sier mye om hvor AI-industrien er i 2026 — og hvilke valg selskapene faktisk tar når penger og prinsipper kolliderer.

Hva betyr «supply-chain risk»-stempelet for Anthropic?

Pentagon-designasjonen er ikke bare symbolsk. Den kan i praksis utelukke Anthropic fra fremtidige forsvarskontrakter, partnerskap med offentlig sektor og andre statlige oppdrag i USA. Det er en alvorlig signatur fra verdens mektigste militærorganisasjon.

Anthropic ga ikke etter. Selskapet valgte å stå fast på grensene for hva Claude kan brukes til — autonome drapssystemer og masseovervåking er utenfor det selskapet er villig til å bidra til. Som jeg har skrevet om tidligere, varslet Anthropic også søksmål mot DoD i kjølvannet av konflikten.

Det er en kostbar beslutning. 200 millioner dollar er ikke ubetydelig, selv for et selskap med Anthropics verdsettelse. Men det finnes en annen type kostnad — tillitskostnad — som er vanskeligere å sette tall på.

Hvorfor fikk OpenAI 295 prosent økning i avinstallinger?

Da det ble kjent at OpenAI hadde tatt over kontrakten, reagerte brukere umiddelbart. ChatGPT fikk en avinstalleringstopp på 295 prosent ifølge TechCrunch. Det er en massiv reaksjon, og den forteller noe viktig: folk bryr seg faktisk om hvilke verdier selskapene de bruker representerer.

OpenAI er ikke ukjent med kontroverser. Selskapet har hatt interne stridigheter om sikkerhetskultur, lederskap og kommersielle kompromisser i årevis. Men å eksplisitt ta en forsvarskontrakt Anthropic avslo av etiske grunner — det var tydelig nok til at vanlige brukere merket det.

295 prosent er et tall som bør sitte. Det er ikke et lite pip fra nettaktivister. Det er reelle folk som bytter verktøy.

Infografikk som viser 295 prosent økning i ChatGPT-avinstallinger etter at OpenAI tok Pentagons AI-kontrakt
Da OpenAI takket ja til Pentagon-kontrakten Anthropic avslo, reagerte brukerne umiddelbart — ChatGPT fikk 295 prosent økning i avinstallinger.

SaaSpocalypse — hva er det egentlig?

TechCrunch-episoden tar opp det som kalles «SaaSpocalypse» — ideen om at AI-agenter i stadig større grad overtar oppgavene som tradisjonelle SaaS-verktøy håndterer. Ikke ved å erstatte appene direkte, men ved å gjøre dem irrelevante.

Tenk på det slik: Hvis en AI-agent kan lese e-post, oppdatere CRM, booke møter og generere rapporter uten at du åpner en eneste app — hva er poenget med de individuelle abonnementene? Det er dette spørsmålet som holder mange SaaS-gründere våkne om natten i 2026.

Anthropic er faktisk en av aktørene som pusher hardt på dette. Tidligere har jeg skrevet om hvordan Anthropic angriper SaaS-markedet direkte — dette er ikke tilfeldig. Det er en bevisst strategi.

Er konkurranse faktisk bra for AI?

Det tredje temaet i TechCrunch-episoden er kanskje det mest interessante: at konkurranse — ekte, ubehagelig, vinnere-og-tapere-konkurranse — er bra for AI-feltet.

Det virker åpenbart, men er det ikke alltid slik bransjen snakker om seg selv. Det er mye «vi er alle på samme lag», «sikkerhet krever samarbeid» og «dette er for menneskeheten». Og ja, noe av det er ekte. Men konkurranse tvinger også frem faktiske valg. Som Anthropics valg om å si nei til Pentagon.

Hadde Anthropic vært enerådende, uten OpenAI i ryggen og xAI på vei inn, ville presset fra Pentagon sett annerledes ut. Nå hadde de et alternativ. Og alternativet valgte annerledes. Det er markedet som fungerer — ikke alltid pent, men det fungerer.

Konseptuell illustrasjon av AI-selskaper i konkurranse der ett signerer en militærkontrakt mens et annet trekker seg tilbake
Konkurranse mellom AI-selskaper tvinger frem reelle valg — og de valgene er ikke alltid de samme.

Hva donerte Anthropic 20 millioner til?

En detalj som fortjener oppmerksomhet: Anthropic donerte 20 millioner dollar til lobbygruppen «Public First» for å støtte kongresskandidater som favoriserer AI-sikkerhet. Det er ikke nøytralt. Det er politikk.

Man kan mene hva man vil om lobbying, men det er i det minste åpenhet rundt hva pengene går til og hvem de skal påvirke. Sett opp mot Pentagon-konflikten tegner det et bilde av et selskap som aktivt prøver å forme rammebetingelsene det opererer innenfor — fremfor å bare akseptere dem.

Om det er klokt å bruke 20 millioner på å påvirke kongresskandidater, er et annet spørsmål. Men det er i det minste konsistent med holdningene Anthropic demonstrerte da de sa nei til DoD-kontrakten.

Hva skjer nå?

Pentagon har OpenAI. Anthropic har prinsippene sine og et varslet søksmål. OpenAI har kontrakten og 295 prosent flere avinstallinger. Ingen vant dette rent.

Pentagon-blacklistingen av Anthropic er ikke sluttpunktet — det er startpunktet for neste runde. Spørsmålet om hvor mye militær kontroll over kommersielle AI-modeller er akseptabelt, kommer ikke til å forsvinne. Det vil komme opp igjen, i nye forhandlinger, med nye aktører.

Og de valgene selskapene tar i de øyeblikkene, er det brukerne faktisk reagerer på. 295 prosent sier at folk følger med.

Les: OpenAI – alt du trenger a vite (2026).

1 kommentar
Legg igjen en kommentar

Din e-postadresse vil ikke bli publisert. Obligatoriske felt er merket med *

Meld deg på nyhetsbrevet

Få oppdateringer om AI nyhetene rett i inboxen!

Du liker kanskje denne også
Jan Sverre med headphones og lydmikser i boardroom-møte med forvirrede executives

Suno AI Copyright 2026 – Opphavsrett og Rettigheter for AI-Musikk

Kan du tjene penger på Suno-musikk? Her er en praktisk gjennomgang av rettigheter, risiko og hva du bør avklare før publisering.
Jan Sverre riding a dinosaur in safari outfit, photorealistic AI-generated image demonstrating Nano Banana Pro capabilities

Jeg testet Nano Banana Pro: AI som faktisk skriver norsk i bilder

Endelig! En AI som kan generere norsk tekst i bilder med 94% nøyaktighet. Jeg testet Nano Banana Pro grundig – her er resultatene.
Jan Sverre tester GPT-5.2 ved en transparent OpenAI GPT-skjerm

GPT-5.2: Jeg testet OpenAIs nyeste modell – her er hva som faktisk fungerer

GPT-5.2 er ute med tre versjoner. Jeg har testet thinking-modellen, sammenlignet med 5.1, og funnet ut hva som faktisk er bedre. Her er mine erfaringer.
Jan Sverre profesjonelt fotograf-kvalitet portrett AI-generert bildegenerering

Google NotebookLM

Google NotebookLM er en AI-assistent som gjør dokumenter om til interaktive samtaler, studieguidere og podcasts på norsk. Nå drevet av Gemini 3 Pro med nye funksjoner som infographics, slide decks og Deep Research. Komplett guide til gratis vs. Plus-versjon.