Det er full fyr i AI-verdenen igjen. Anthropic har nylig gått hardt ut mot de store kinesiske AI-aktørene DeepSeek, Moonshot og MiniMax. Ifølge Anthropic har disse selskapene brukt over 24 000 falske kontoer for å gjennomføre mer enn 16 millioner samtaler med Claude. Dette er ikke uskyldig bruk, men et målrettet forsøk på å «destillere» modellene deres — altså å stjele den underliggende kunnskapen og bygge sine egne kopier.
For meg er dette en fascinerende utvikling. Vi ser en katt-og-mus-lek hvor de amerikanske selskapene investerer milliarder i grunnforskning, mens andre aktører finner kreative bakdører for å hente ut verdien gratis. Dette minner om da Sam Altman raste mot Anthropic, men her er innsatsen mye høyere: Det handler om nasjonal og global dominans i AI-kappløpet.
I USA ropes det nå etter strengere eksportkontroll og hardere reguleringer. Det er en ryggmargsrefleks hos politikere å ville stenge grensene når de føler at noen stjeler teknologien deres. Men jeg mener dette er et feilspor. Regulering stopper ikke innovasjon som skjer i det skjulte; det bremser bare de som prøver å bygge noe nytt i det åpne landskapet. Hvis man gjør det for vanskelig å trene AI lovlig, vil flere ty til destillering og bakdører. Å bygge murer rundt kode fungerer sjelden i lengden.
Den kinesiske snarveien og konsekvensene
Destillering fungerer ved at en mindre modell trenes på utdata fra en større og smartere modell, som Claude. Kinesiske selskaper har blitt mestre på dette. Det er ikke rart at Anthropic-ledelsen nå slår alarm, særlig når vi ser at modeller som Step-3.5-Flash allerede utfordrer de etablerte aktørene. Konkurransen er beinhard, og snarveiene er mange.
Det som overrasker meg mest, er ikke at dette skjer, men skalaen på operasjonen. 24 000 falske kontoer krever en massiv, koordinert innsats. Det viser hvor stor verdi disse modellene har, og hvor langt aktører er villige til å gå for å sikre seg kompetansen uten å måtte ta den fulle regningen for trening og infrastruktur. Du kan lese mer om saken i TechCrunch sin grundige dekning.
Spørsmålet fremover blir hvordan plattformene kan beskytte seg mot dette. De kan ikke bare stenge ute alle brukere fra bestemte regioner; da mister de markedsandeler og viktig brukerdata. Samtidig kan de ikke la konkurrentene tappe dem for verdi. Jeg mistenker at vi vil se mer avanserte metoder for å avsløre bot-nettverk, snarere enn tunge politiske reguleringer. Markedet finner som regel egne løsninger raskere enn byråkratene klarer å skrive lovene sine.