Claude Code source-koden ble utilsiktet publisert på npm 31. mars 2026 da Anthropic ved en feil la ved en 59,8 MB source map-fil i versjon 2.1.88 av pakken @anthropic-ai/claude-code. Innen timer var 512 000 linjer TypeScript speilet på GitHub og analysert av tusenvis av utviklere. Det Anthropic kaller en «pakkeringsfeil forårsaket av menneskelig svikt» har nå satt selskapet i en situasjon der konkurrenter, hackere og nysgjerrige kan lese hva de egentlig holder på med.

Jeg skrev om selve lekkasjen da den skjedde, og en dag senere om at noen gjenbygget hele Claude Code til en fungerende executable fra sourcemap-filen. Men det virkelig interessante er ikke at koden lekket – det er hva koden faktisk inneholder. Det er her det blir virkelig morsomt.

For Anthropic hadde skjult ganske mye i den kodebasen. En alltid-på bakgrunnsagent. Et virtuelt kjæledyr. En «Undercover»-modus. Anti-destillasjons-triks. Og 108 feature flags som ikke er dokumentert noe sted. La oss gå gjennom det som faktisk er verdt å vite.

Undercover-modus: Claude som skjult agent

Den kanskje mest kontroversielle oppdagelsen er noe som kalles «Undercover»-modus. Systemprompten i kildekoden sier eksplisitt: «You are operating UNDERCOVER… Your commit messages MUST NOT contain ANY Anthropic-internal information. Do not blow your cover.»

Hva betyr dette i praksis? Når Claude Code jobber i åpen kildekode-prosjekter på GitHub og andre offentlige repositories, er den aktivt designet for å ikke avsløre at det er Anthropics AI som genererer koden. Interne kodenavner som «Capybara» og «Tengu» er blokkert fra å dukke opp i commits. Det hele er satt opp med et «NO force-OFF»-flagg – altså en mekanisme som ikke kan skrus av.

Ironi kan man ikke ta fra dem: en hemmelighetsmodus designet for å ikke blåse coveret ble avslørt nettopp fordi de glemte å ekskludere en debuggingsfil fra npm-pakken.

Er dette problematisk? Det avhenger av perspektivet ditt. Teknisk sett er det ikke så annerledes enn at en konsulent leverer kode uten å nevne hvilke verktøy de brukte. Men det finnes nok folk som vil mene at et AI-verktøy som aktivt skjuler sin opprinnelse i offentlige repositories bør dokumenteres tydeligere.

Terminal som viser Undercover-modus kode fra Claude Code med teksten Do not blow your cover
Undercover-modus i Claude Code er designet for å skjule at det er Anthropics AI som bidrar til åpen kildekode-prosjekter.

Hva er KAIROS – den alltid-på agenten?

Dette er den mest ambisiøse oppdagelsen. KAIROS er en bakgrunnsdaemon – en agent som kjører kontinuerlig mens du jobber, observerer hva du gjør, og bygger opp sin egen hukommelse over tid.

Kodebasen avslører at KAIROS:

  • Lagrer append-only daglige logger over observasjoner
  • Kjører automatiske handlinger basert på kontekst
  • Utfører «dreaming»-prosesser mens du er inaktiv – konsoliderer hukommelse, fjerner logiske motstridigheter, og konverterer vage innsikter til «absolutte fakta»
  • Har en /dream-kommando for manuell minnedestillasjon
  • Integrerer med GitHub webhooks og cron-oppgaver (5-minutters sykler)

AutoDream-logikken er spesielt interessant. Systemet er designet for å sammenflette spredte observasjoner og rydde opp i selvmotsigelser – litt som søvn gjør for menneskelig hukommelse, ifølge hypotesen. Dette er en fundamentalt annerledes tilnærming enn dagens reaktive AI-verktøy der du starter en samtale, gjør noe, og avslutter.

KAIROS er ikke tilgjengelig for vanlige brukere ennå – det er låst bak interne feature flags. Men at arkitekturen allerede er i koden antyder at dette er nærmere enn folk tror.

Buddy: Tamagotchi i kodeeditoren din

Okay, dette er litt rart. I kodebasen finner man et komplett system for et virtuelt AI-kjæledyr kalt «Buddy». Vi snakker om:

  • 18 species: and, drage, axolotl, capybara, sopp, spøkelse og mer
  • Sjeldenhetsnivåer: fra Common til Legendary (1% dropp-rate), pluss «shiny»-varianter
  • 5 stats: Debugging, Patience, Chaos, Wisdom og Snark
  • Deterministisk generering basert på bruker-ID – samme bruker får samme Buddy hver gang
  • Kosmetikk: hatter og tilbehør

Interne kodekommentarer antyder at en teaser var planlagt for 1.-7. april, med full lansering i mai 2026. Det er selvfølgelig litt morsomt at dette ble avslørt 31. mars – en dag før teaser-vinduet skulle åpne.

Buddy er sannsynligvis et engagement-tiltak. Et kjæledyr som «vokser» mens du koder gir folk en grunn til å holde verktøyet åpent. Smart, om enn litt rart fra et selskap som ellers profilerer seg på seriøs AI-forskning.

Illustrasjon av Buddy AI-kjæledyret fra Claude Code med stats for Debugging, Patience og Wisdom
Buddy er et virtuelt kjæledyr med 18 arter og stats som Debugging og Snark – planlagt lansert i mai 2026 ifølge den lekkede kildekoden.

Anti-destillasjons-tiltak: Anthropic beskytter modellen sin

Her er noe som vil interessere folk som jobber med AI-sikkerhet og modelltrening. Kodebasen avslører to lag med beskyttelse mot at konkurrenter bruker Claude Code-trafikk til å trene sine egne modeller:

1. Falske verktøy (Fake tools injection): Claude Code injiserer falske verktøydefinisjoner i API-trafikken. Ideen er at dersom noen prøver å lære av Claude Codes API-kall, vil de ende opp med å trene på forurenset data. Smart i teorien.

2. Connector-tekst-oppsummering: I stedet for å returnere fulle resonneringskjeder, returnerer systemet kryptografiske signaturer. Dette gjør det vanskeligere å lære av Claudes tankegang.

Problemet? Begge mekanismene er relativt enkle å omgå. En MITM-proxy som striper anti_distillation-feltet fra API-kall ville bypasse beskyttelsen. Og nå vet alle at beskyttelsen eksisterer og akkurat hvordan den fungerer.

Den tredje mekanismen er mer robust: native client attestation. Et cch=fbd0a-placeholder i API-headers erstattes med en beregnet hash av Buns native Zig HTTP-stack før forespørselen forlater prosessen. Dette kryptografisk beviser at forespørselen kommer fra den offisielle binæren – en teknisk håndhevelse mot tredjeparts klienter. Utviklerne som gjenbygget Claude Code fra sourcemap fikk nok noe å bryne seg på her.

Andre funn: frustrasjon, sikkerhet og 108 flagg

Lekkasjen avslørte også:

  • Frustrasjon-deteksjon via regex: Claude Code bruker regex-mønstre for å matche banning og frustrerte uttrykk fra brukere – ikke en språkmodell, bare gammeldags mønstergjenkjenning. Enkelt, men effektivt.
  • 23 bash-sikkerhetskontroller: Inkluderer blokkering av Zsh-builtins og forsvar mot zero-width space-injeksjon.
  • Prompt cache-optimalisering: 14 sporede cache-break-vektorer med «sticky latches» for å holde kostnadene nede.
  • 108 feature flags: Udokumenterte moduler inkluderer ULTRAPLAN (avlaster planlegging til Claude Opus i opptil 30 minutter), Coordinator Mode (en Claude-instans styrer parallelle arbeider-agenter), og mer.

ULTRAPLAN er spennende. 30 minutter med Opus-planlegging for et enkelt problem – det er en helt annen tilnærming til komplekse kodingsoppgaver enn det dagens brukere er vant til.

Hva betyr dette for Claude Code-brukere?

Det viktigste takeawayet er at Anthropic jobber med noe fundamentalt mer ambisiøst enn et kodeverktøy. KAIROS peker mot en fremtid der AI-agenter ikke er verktøy du åpner og lukker, men systemer som er kontinuerlig til stede i arbeidsflyten din – som kjenner prosjektet ditt, historien din, og tankegangen din over tid.

Om det er betryggende eller ikke avhenger litt av hva du tenker om å ha en alltid-på AI-prosess som logger alt du gjør og «drømmer» om det om natten.

Personvern-spørsmålene er reelle. The Register publiserte en analyse av hvor mye systeminfo Claude Code samler inn – det er en del. Med KAIROS ble dette enda mer relevant. Anthropic har foreløpig ikke kommentert de spesifikke funnene i detalj utover å bekrefte at lekkasjen skjedde og at «ingen sensitiv kundedata eller credentials var involvert.»

For konkurrentene er nok det strategiske kartet det mest verdifulle som lekket. Kode kan skrives om. Roadmaps avslører prioriteringer. Og Anthropics prioriteringer er nå meget klare: persistent agenter, alltid-på hukommelse, og engagement-mekanikker for å holde brukerne koblet til verktøyet. Spørsmålet er om konkurrentene rekker å kopiere det før Anthropic lanserer det.

Har du brukt Claude Code og tenkt på personvern-aspektene? Jeg er nysgjerrig på hva du mener om KAIROS-konseptet – er det spennende eller ubehagelig? Si gjerne noe i kommentarfeltet.

Legg igjen en kommentar

Din e-postadresse vil ikke bli publisert. Obligatoriske felt er merket med *

Meld deg på nyhetsbrevet

Få oppdateringer om AI nyhetene rett i inboxen!

Du liker kanskje denne også
Jan Sverre med headphones og lydmikser i boardroom-møte med forvirrede executives

Suno AI Copyright 2026 – Opphavsrett og Rettigheter for AI-Musikk

Kan du tjene penger på Suno-musikk? Her er en praktisk gjennomgang av rettigheter, risiko og hva du bør avklare før publisering.
Jan Sverre tester GPT-5.2 ved en transparent OpenAI GPT-skjerm

GPT-5.2: Jeg testet OpenAIs nyeste modell – her er hva som faktisk fungerer

GPT-5.2 er ute med tre versjoner. Jeg har testet thinking-modellen, sammenlignet med 5.1, og funnet ut hva som faktisk er bedre. Her er mine erfaringer.
Jan Sverre profesjonelt fotograf-kvalitet portrett AI-generert bildegenerering

Google NotebookLM

Google NotebookLM er en AI-assistent som gjør dokumenter om til interaktive samtaler, studieguidere og podcasts på norsk. Nå drevet av Gemini 3 Pro med nye funksjoner som infographics, slide decks og Deep Research. Komplett guide til gratis vs. Plus-versjon.
Jan Sverre Bauge sitter foran dataskjermer med AI-agent dashboards og meldingsapper i full aktivitet

Hva Er ClawdBot? Open-Source AI-Agent med Sikkerhetsproblemer

Clawdbot er open-source AI-agenten alle snakker om. Slik kommer du i gang – og slik sikrer du deg mot alvorlige sårbarheter.