Innhold Vis
ChatGPT-nedlastinger falt med 295 prosent etter at OpenAI aksepterte Pentagon-kontrakten Anthropic sa nei til. Det er tallene bak den mest omdiskuterte forsvarsavtalen i AI-historien — og en hard leksjon om hva det faktisk koster å gjøre business med den amerikanske militærmaskinen.
Anthropic ble offisielt stemplet som «forsyningskjederisiko» av Pentagon etter at de to partene ikke kom til enighet om militærets kontrollkrav over Claude. Kontrakten var verdt 200 millioner dollar. Stridsemnet var om Pentagon skulle få tilgang til modellen for autonome våpensystemer og masseovervåking av sivilbefolkningen. Anthropic sa nei. DoD gikk videre til OpenAI, som sa ja.
Det er den korte versjonen. Den lange er langt mer lærerik — særlig for oppstartsselskaper som drømmer om lukrative forsvarskontrakter uten å ha tenkt gjennom hva de faktisk selger.
Hva krevde egentlig Pentagon?
Stridens kjerne var kontroll. Militæret ville ha tilnærmet ubegrenset tilgang til AI-modellen — inkludert bruk i autonome våpensystemer og det som i dokumentene beskrives som masseovervåking av innenlands befolkning. Anthropic, som har bygd hele sin merkevare på ansvarlig AI-utvikling, mente dette var uforenlig med selskapets verdier. De sa nei.
Pentagon tolket avslaget som en sikkerhetstrussel. Ikke mot Anthropic, men mot DoD selv — og stempler dermed selskapet som en risiko i forsyningskjeden. Det er en betegnelse som i praksis blokkerer fremtidige forsvarskontrakter og sender et tydelig signal til resten av bransjen.
Signalet er dette: enten bøyer du deg, eller du er ute.
OpenAI sa ja — og fikk umiddelbar straff fra markedet
OpenAI aksepterte Pentagon-kontrakten. Prisen var ikke synlig i budsjettlinjer, men i app store-statistikk. ChatGPT-nedlastinger stupte med 295 prosent i kjølvannet av kunngjøringen. Brukerne stemte med fingeren.
Det er en interessant situasjon. OpenAI valgte den kommersielle gevinsten. Markedet reagerte med å avinstallere produktet. Altman måtte raskt ut og kommunisere at OpenAI hadde revidert avtalen — men kontraktens fulle innhold er fortsatt ikke offentliggjort.
Jeg har fulgt dette siden Pentagon-presset mot Anthropic startet i februar. Som jeg skrev da Anthropic varslet søksmål, er dette ikke bare et spørsmål om forretningsstrategi — det er et spørsmål om hva slags selskaper vi ønsker at AI-laboratoriene skal være.

Hva lærer startups av dette?
Forsvarskontrakter ser fantastiske ut på papiret. 200 millioner dollar er 200 millioner dollar. Men militæret er ikke som andre kunder — de kjøper ikke bare et produkt, de kjøper kontroll over det.
For et AI-selskap betyr det at du må svare på spørsmål du helst ikke vil svare på. Kan modellen brukes til å identifisere og drepe mål autonomt? Kan den brukes til å overvåke sivilbefolkning i stor skala? Hva skjer hvis modellen brukes på måter som strider mot selskapets retningslinjer? Pentagon vil ha svar — og de vil ha dem på sine premisser.
Anthropic hadde åpenbart ikke et svar som tilfredsstilte militæret. Resultatet var ikke bare et tapt salg. Det var en offentlig svartelisting som signaliserer til alle andre potensielle leverandører: slik ser det ut når du krysser forsvaret.
Greia er at dette ikke nødvendigvis er urimelig fra Pentagons side. Militæret har legitime behov for kontroll over systemer de integrerer i operasjoner. Problemet oppstår når kontrollkravene strekker seg inn i territorier som — om de ble kjent for offentligheten — ville skapt sterk motstand.
295 prosent uninstalls er et markedssignal, ikke bare statistikk
Det er verdt å stoppe opp ved uninstall-tallene. En nedgang på 295 prosent er ikke tilfeldige svingninger — det er en koordinert reaksjon fra brukere som aktivt valgte å fjerne appen etter nyheten.
Dette forteller noe viktig: AI-brukere er ikke passive forbrukere. De har meninger om hva selskapene de bruker penger og tillit på gjør. Militær AI er ikke et nøytralt tema, og mange ønsker ikke å være involvert — selv indirekte som betalende bruker.
For OpenAI er dette et strategisk dilemma. Pentagon-kontrakten gir penger og innflytelse. Men brukerflukt undergraver den kommersielle basen som finansierer forskningen. De to kan ikke begge vinne på samme tid.

Er dette tegnet på at AI-selskapene er for mye å stole på?
Pentagon-stempelet mot Anthropic reiser et ubehagelig spørsmål: hva skjer med et selskap som faktisk fastholder sine egne verdier når staten presser i motsatt retning?
I dette tilfellet: de mister en 200 millioner dollar kontrakt og får en merkelapp som «sikkerhetsrisiko». Markedet belønner dem med brukerstrøm fra folk som respekterer avslaget. Men om man ser på det fra et rent kommersielt perspektiv, er prisen høy.
Det finnes ikke noe enkelt svar her. Som jeg dekket da Pentagon formelt stemplet Anthropic, handler dette om grunnleggende spørsmål om hvem som eier AI-teknologien når den er solgt — og på hvilke vilkår.
Det jeg vet er at dette ikke er siste gang vi ser denne konflikten. Forsvarsbudsjettet er enormt, og AI-selskapene vet det. Presset mot dem kommer til å øke, ikke avta. Anthropic satte en standard. Spørsmålet er om noen andre tør å holde den.
Konklusjon: hva betyr dette for deg?
Hvis du jobber i eller med AI-selskaper, er dette en case study i verdikonflikter. Anthropic valgte omdømme over kontrakt. OpenAI valgte kontrakt og fikk et omdømmeproblem. Begge betalte en pris.
For forbrukere og bedrifter som bruker AI-verktøy, minner dette om at selskapene bak verktøyene tar valg som påvirker deg. Hvem de selger til, på hvilke vilkår, og hva de er villige til å gjøre for penger — alt dette har konsekvenser for hva produktet faktisk er og hvem det tjener.
295 prosent uninstall-økning er ikke en liten ting. Det er brukere som betaler med handlingen sin. Kanskje er det det tydeligste signalet av alle.
1 kommentar