Innhold Vis
Anthropic varsler søksmål mot Pentagon etter å ha blitt stemplet som «forsyningskjederisiko for nasjonal sikkerhet». Samme dag kunngjorde OpenAI at de overtar Anthropics plass i klassifiserte militære nettverk. To selskaper, to helt ulike valg — og et spørsmål som burde bekymre alle: hva skjer når staten velger AI-leverandører basert på lydighet, ikke kvalitet?
Forhistorien er godt dokumentert: Pentagon krevde ubegrenset tilgang til Claude for masseovervåking og autonome våpensystemer. Anthropic-sjef Dario Amodei sa nei. Fristen gikk ut fredag, og Trump-administrasjonen beordret alle føderale etater å slutte å bruke Claude — med umiddelbar virkning.
Men markedet svarte. Claude ble den mest nedlastede appen i USA innen mandag, ifølge Sensor Tower. ChatGPT fikk en 775% økning i 1-stjerners anmeldelser på lørdag alene. Forbrukerne har talt.
Hva krevde Pentagon egentlig av Anthropic?
Pentagon ville ha to ting: tilgang til Claude for innenriks masseovervåking av amerikanske borgere, og bruk i fullt autonome våpensystemer. Begge deler bryter med Anthropics bruksretningslinjer — retningslinjer selskapet har hatt siden oppstarten.
Amodei var krystallklar i sitt svar: «Frontier AI-systemer er rett og slett ikke pålitelige nok til å drive fullt autonome våpen.» Og videre: «Ingen form for trusler eller straff fra Forsvarsdepartementet vil endre vår posisjon på innenriks masseovervåking eller autonome våpen.»
Det er verdt å stoppe opp her. Forskning viser at store språkmodeller produserer hyppige hallusinasjoner — de dikter opp ting som høres riktige ut. I en militær kontekst betyr det potensielt sivile tap og «friendly fire». Amodei har et poeng. Men det er ikke hele bildet.

Hvorfor valgte OpenAI å ta kontrakten?
Bare timer etter at Anthropic ble utestengt, kunngjorde Sam Altman at OpenAI overtar plassen i Pentagons klassifiserte nettverk. Timingen var — la oss si det mildt — oppsiktsvekkende.
Reaksjonen kom raskt. Amodei kalte OpenAIs kommunikasjon rundt avtalen for «straight up lies» i et internt memo til sine ansatte, ifølge TechCrunch. Han beskrev hele opplegget som «safety theater» — at OpenAI brydde seg om å blidgjøre ansatte, ikke om å faktisk forhindre misbruk.
Altman innrømmet selv i etterkant at de «ikke burde ha hastverk med å få dette ut». Det sier ganske mye.
Etter massiv kritikk kom OpenAI mandag kveld med en revidert avtale. Ny formulering: «AI-systemet skal ikke bevisst brukes til innenriks overvåking av amerikanske personer og statsborgere.» De ekskluderte også Pentagon-etterretningsorganer som NSA fra å bruke tjenesten. Men — og dette er et stort men — hele kontrakten er fortsatt ikke offentliggjort.
Brad Carson, tidligere sjefsjurist i den amerikanske hæren og nå leder for Americans for Responsible Innovation, sa det rett ut: «Jeg har motvillig kommet til konklusjonen at denne bestemmelsen egentlig ikke eksisterer, og at de bare prøver å late som.»
Hva skjer når staten velger leverandører basert på lydighet?
Her er det spørsmålet ingen i Washington stiller høyt nok. Pentagon hadde en kontrakt verdt 200 millioner dollar med Anthropic. Anthropic leverte teknologi som Pentagon selv brukte daglig. Så kom kravet: fjern sikkerhetsbegrensningene, ellers.
Anthropic sa nei. Pentagon svarte med å stemple dem som sikkerhetsrisiko og gi dem seks måneders utfasing. OpenAI sa ja — og ble belønnet med kontrakten.
Tenk på hva dette signaliserer til markedet. Hvis du som AI-selskap prioriterer sikkerhet og nekter staten ubegrenset tilgang, blir du straffet. Hvis du bøyer deg, får du kontrakten. Det er ikke akkurat et insentiv for ansvarlig innovasjon.
Missy Cummings, professor ved George Mason University og tidligere marinepilot, påpekte et ubehagelig paradoks: Anthropic har tidligere promotert «latterlig hype» om AI-kapabiliteter, for så nå å hevde at teknologien er upålitelig for våpen. Poenget er rettferdig — men det endrer ikke at Pentagon vil bruke AI til masseovervåking uavhengig av hva ekspertene mener.

Er OpenAIs avtale faktisk trygg?
OpenAIs sikkerhetssjef for nasjonal sikkerhet, Katrina Mulligan, sa at den nye kontrakten «forsterker at innenriks overvåking er forbudt under denne avtalen, inkludert bruk av kommersielt innhentet informasjon». Men hun la til at de er åpne for fremtidig NSA-samarbeid «hvis de rette sikkerhetstiltakene er på plass».
Brian McGrail fra Center for AI Safety oppsummerte: «Vi må se hele kontrakten for å si noe med rimelig grad av sikkerhet.» Og der står vi. En kontrakt ingen har sett, med garantier ingen kan verifisere, fra et selskap som ifølge egen CEO «hadde for mye hastverk».
CNN rapporterer at flere OpenAI-ansatte er rasende over Pentagon-avtalen. Internt splitter dette selskapet. Og MIT Technology Review beskriver OpenAIs «kompromiss» som nøyaktig det Anthropic fryktet ville skje.
Hva betyr dette for AI-sikkerhet fremover?
Det enkleste ville vært å gjøre dette til en enkel «Anthropic = good, OpenAI = bad»-historie. Men virkeligheten er mer rotete enn som så.
Anthropic er ikke en veldedig organisasjon. De er et selskap som valgte å stå på prinsippene sine — og ble belønnet av markedet for det. Claude ble mest nedlastet i USA. Det er markedsmekanismer i praksis: forbrukere stemmer med lommeboken.
Men det er også en annen side. Når staten kan straffe selskaper som ikke bøyer seg, og belønne dem som gjør det, er det ikke lenger et fritt marked. Det er statlig kontroll over teknologiutvikling forkledd som «nasjonale sikkerhetshensyn». Hegseth innkalte Amodei personlig for å legge press. Når det ikke fungerte, kom stempelet «sikkerhetsrisiko».
Spørsmålet er ikke om AI skal brukes i militæret — det kommer til å skje uansett. Spørsmålet er om vi vil ha et system der leverandører velges basert på hvem som sier ja til alt, eller basert på hvem som leverer best teknologi med rimelige begrensninger.
Som vi skrev forrige uke: dette handler til syvende og sist om maktbalanse. Pentagon vil ha ubegrenset tilgang. AI-selskapene sitter på teknologien. Kongressen, som vanlig, sitter på gjerdet. Og vi — brukerne — betaler prisen uansett hvem som vinner.

Tallenes tale: markedet snakker
La oss se på hva som faktisk skjedde etter fredag:
- Claude: Mest nedlastede app i USA innen mandag (Sensor Tower)
- ChatGPT: 775% økning i 1-stjerners anmeldelser på en dag
- OpenAI: Reviderte avtalen innen 72 timer etter kritikkstormen
- Anthropic: Varslet søksmål — vil utfordre Pentagon i retten
Tallene lyver i hvert fall ikke. Forbrukere reagerte umiddelbart — og de valgte selskapet som sa nei til masseovervåking. Det er verdt å merke seg for alle som tror at «doing the right thing» ikke lønner seg.
Hva skjer videre? Anthropic vil gå til retten så snart de mottar formell varsel om straffetiltakene. OpenAI vil prøve å fikse omdømmet sitt med enda sterkere formuleringer i kontrakten. Og Pentagon? Pentagon vil finne noen som sier ja, uansett. Spørsmålet er bare til hvilken pris — og hvem som ender opp med å betale den.