Anthropic-saken jeg skrev om i går har fått nye detaljer som endrer både alvorlighetsgraden og den politiske dimensjonen i konflikten.
Kinesiske AI-selskaper som DeepSeek, Moonshot AI og MiniMax har tatt verden med storm de siste månedene med imponerende åpne modeller. Men nå slår den amerikanske AI-giganten Anthropic alarm. I et oppsiktsvekkende blogginnlegg anklager de sine kinesiske konkurrenter for å bygge suksessen sin på massivt datatyveri fra nettopp Anthropic.
Dette er ikke et lite overtramp, ifølge selskapet bak Claude. De hevder at de kinesiske aktørene har opprettet over 24 000 falske brukerkontoer for å tappe modellene deres for kunnskap. Gjennom over 16 millioner automatiserte spørringer skal de ha hentet ut verdifulle data om hvordan Claude resonnerer og løser problemer, i et forsøk på å trene opp sine egne systemer.
Teknikken som brukes kalles for «distillation», en metode der en svakere modell lærer av en sterkere. I utgangspunktet er dette en vanlig og legitim praksis i bransjen for å lage mindre og mer effektive modeller. Problemet oppstår når metoden brukes for å hente ut funksjonalitet fra konkurrenters proprietære systemer, noe Anthropic mener utgjør en betydelig sikkerhetsrisiko og undergraver amerikanske eksportkontroller.
Konsekvensene av et digitalt våpenkappløp
Anthropic påpeker at modeller trent gjennom ulovlig destillering ofte mangler viktige sikkerhetsmekanismer. Dette kan i verste fall føre til at avanserte AI-funksjoner havner i hendene på aktører som ønsker å utvikle biologiske våpen eller gjennomføre cyberangrep. For en bransje som allerede sliter med tillit, er dette bekymringsfulle utsikter.
Samtidig er det vanskelig å ignorere ironien i situasjonen. Anklagene om tyveri er ikke akkurat nye i AI-verdenen. Anthropic selv har blitt saksøkt for milliarder av dollar etter påstander om at de har trent modellene sine på opphavsrettsbeskyttet materiale, inkludert piratkopierte bøker og musikk. Det blir fort en klassisk «glasshus»-situasjon.
Selv Elon Musk, som aldri lar en sjanse gå fra seg til å stikke i sine konkurrenter, har rykket ut og kalt Anthropic for hyklere. Bloomberg rapporterer at denne saken setter søkelyset på et fundamentalt problem: Hvem eier egentlig dataene som de store modellene mates med? Uansett hva svaret er, tegner det seg et bilde av en industri hvor alle stjeler fra alle for å beholde forspranget.
Eksportkontroll og kampen om fremtiden
Kjernen i konflikten strekker seg langt utover bare opphavsrett og datatyveri. Dette handler om det geopolitiske kappløpet mellom USA og Kina. Amerikanske myndigheter har innført strenge eksportkontroller på de kraftigste AI-brikkene fra selskaper som Nvidia, i et forsøk på å bremse Kinas teknologiske fremmarsj. Den voldsomme fremveksten av kinesiske modeller viser at de likevel finner veier rundt hindringene.
Når selskaper som DeepSeek og MiniMax angivelig bruker amerikanske sky-tjenester for å tappe amerikanske modeller, omgår de i praksis disse eksportrestriksjonene. Dette har fått amerikanske politikere til å rope varsku. Hvis ikke USA klarer å beskytte de mest avanserte algoritmene sine, risikerer de å miste hele sitt teknologiske forsprang. Dette har til og med ført til at Pentagon nå vurderer konsekvensene for sine egne kontrakter med AI-leverandører.
For meg understreker dette hvor krampaktig og umulig det er å forsøke å regulere eller stenge inne denne teknologien. Mens politikerne diskuterer hvem som skal få lov til å kjøpe hvilke skjermkort, og selskapene saksøker hverandre over data, flyter informasjonen uansett fritt over landegrensene. Løsningen ligger ikke i strengere kontroll, men i raskere innovasjon og åpenhet.