Jan Sverre foran Pentagon med droner

Pentagon er i ferd med å ta et drastisk skritt mot et av USAs ledende AI-selskaper. Forsvarsminister Pete Hegseth vurderer å stemple Anthropic som en «supply chain risk» – et stempel som vanligvis reserveres for fiendtlige utenlandske aktører som Huawei. Årsaken? Anthropic nekter å fjerne alle etiske begrensninger på hvordan militæret kan bruke deres AI-modell Claude.

Det hele koker ned til et enkelt spørsmål: Kan et privat AI-selskap sette grenser for hvordan militæret bruker teknologien deres? Pentagon mener nei. Anthropic mener ja – i hvert fall når det gjelder autonome våpensystemer og masseovervåking av amerikanske borgere.

Konflikten har bygget seg opp over måneder, men eksploderte etter at det ble kjent at Claude ble brukt i den amerikanske militæroperasjonen som fanget Venezuelas president Nicolás Maduro i januar. Anthropic begynte umiddelbart å stille spørsmål ved om bruken var i tråd med deres retningslinjer.

Hva Pentagon vil ha

Pentagon krever at alle fire store AI-selskaper – Anthropic, OpenAI, Google og xAI – skal tillate militæret å bruke AI-verktøyene deres til «alle lovlige formål». Dette inkluderer våpenutvikling, etterretningsinnsamling og slagmarkoperasjoner. Tre av selskapene har vist seg villige til å forhandle. Anthropic har stått hardt på sitt.

En høytstående Pentagon-tjenestemann sa til Axios: «Det vil bli en enorm smerte å vikle seg ut av dette, og vi kommer til å sørge for at de betaler en pris for å tvinge oss til dette.» Dette er ikke diplomatspråk – det er en åpen trussel.

Det som gjør situasjonen pikant er at Claude for øyeblikket er den eneste frontier AI-modellen som er tilgjengelig på det amerikanske militærets klassifiserte nettverk. Pentagon har selv beskrevet Claude som «eksepsjonelt effektiv» i spesialiserte arbeidsflyter. De er med andre ord avhengige av en teknologi de ikke har full kontroll over.

Anthropics røde linjer

Anthropic, ledet av Dario Amodei, har vært villig til å lempe på noen begrensninger. Men to ting står fast som fjell: De vil ikke at Claude skal brukes til masseovervåking av amerikanske borgere, og de vil ikke at Claude skal hjelpe med å utvikle våpen som kan avfyres uten direkte menneskelig involvering.

Dette er ikke tilfeldig valgte prinsipper. Anthropic har konsekvent posisjonert seg som det mest sikkerhetsfokuserte av de store AI-selskapene. De ble grunnlagt av tidligere OpenAI-ansatte som mente at OpenAI ikke tok AI-sikkerhet alvorlig nok. Å gi etter for Pentagon på nettopp disse punktene ville undergrave hele selskapets identitet.

En talsperson for Anthropic sa at samtalene med Pentagon har vært «produktive» og at de jobber «i god tro» for å finne løsninger. Men de har også vært tydelige på at visse grenser ikke er forhandlingsbare.

Konsekvensene av en svartelisting

Hvis Pentagon gjennomfører trusselen og stempler Anthropic som en sikkerhetsrisiko, vil konsekvensene være omfattende. Alle selskaper som gjør forretninger med Pentagon – og det er mange – må sertifisere at de ikke bruker Claude internt. Gitt at Anthropic hevder at åtte av de ti største amerikanske selskapene bruker Claude, vil dette utløse en bølge av interne revisjoner og kostbare systemendringer.

For Anthropic selv er ikke kontrakten på 200 millioner dollar kritisk – de har rapportert 14 milliarder dollar i årlige inntekter. Men signaleffekten vil være enorm. Det vil sende et tydelig budskap til hele tech-industrien: Samarbeid med militæret betyr å akseptere militærets vilkår, uten forbehold.

Pentagon-talsmann Sean Parnell var krystallklar: «Vår nasjon krever at våre partnere er villige til å hjelpe våre krigere med å vinne i enhver kamp. Til syvende og sist handler dette om våre tropper og det amerikanske folkets sikkerhet.»

Et regulatorisk vakuum

Konflikten avdekker et dypt problem: Eksisterende amerikanske overvåkingslover ble skrevet for en annen tid. De var ikke designet for AI-systemer som kan trekke ut mønstre, bygge profiler og generere slutninger i en skala som var utenkelig for bare noen få år siden.

Pentagon har allerede lovlig adgang til enorme mengder personlig informasjon – alt fra aktivitet på sosiale medier til våpentillatelser. Kritikere advarer om at AI kan forsterke disse evnene på måter som gjør tilsyn vanskeligere og øker risikoen for at sivile blir målrettet av automatisert analyse.

Anthropics posisjon reflekterer disse bekymringene. Pentagon-tjenestemenn argumenterer derimot for at lovlighet bør være den avgjørende standarden – og at forsvarsdepartementet ikke kan akseptere kontraktsvilkår som forhindrer lovlige operasjoner.

Hva dette betyr for fremtiden

Det som skjer mellom Pentagon og Anthropic de neste ukene vil forme forholdet mellom tech-industrien og militæret i årevis fremover. Hvis Anthropic gir etter, vil det sette presedens for at AI-selskaper må bøye seg for statens krav. Hvis de holder stand og blir svartelistet, vil det vise at det har en pris å holde på etiske prinsipper i møte med verdens mektigste militær.

For oss vanlige brukere er dette en påminnelse om at AI-modellene vi bruker daglig også kan brukes til formål vi kanskje ikke er komfortable med. Og at kampen om hvem som kontrollerer disse verktøyene – og hvordan de kan brukes – bare så vidt har begynt.

En ting er sikkert: Pentagon er ikke vant til å høre «nei». Og Anthropic virker ikke vant til å si noe annet.

2 kommentarer
Legg igjen en kommentar

Din e-postadresse vil ikke bli publisert. Obligatoriske felt er merket med *

Du liker kanskje denne også

Suno og opphavsrett i 2026: Det du må vite før du publiserer én eneste låt

Kan du tjene penger på Suno-musikk? Her er en praktisk gjennomgang av rettigheter, risiko og hva du bør avklare før publisering.

GPT-5.2: Jeg testet OpenAIs nyeste modell – her er hva som faktisk fungerer

GPT-5.2 er ute med tre versjoner. Jeg har testet thinking-modellen, sammenlignet med 5.1, og funnet ut hva som faktisk er bedre. Her er mine erfaringer.

Google NotebookLM

Google NotebookLM er en AI-assistent som gjør dokumenter om til interaktive samtaler, studieguidere og podcasts på norsk. Nå drevet av Gemini 3 Pro med nye funksjoner som infographics, slide decks og Deep Research. Komplett guide til gratis vs. Plus-versjon.

Clawdbot – Open-source AI-agenten alle snakker om, og sikkerheten ingen snakker om

Clawdbot er open-source AI-agenten alle snakker om. Slik kommer du i gang – og slik sikrer du deg mot alvorlige sårbarheter.