Innhold Vis
Anthropic er i ferd med å lansere det de beskriver som sin kraftigste AI-modell noensinne – og den ble tilfeldigvis avslørt av et klassisk konfigurasjonsfeil. Et utkast til blogginnlegg lå åpent i en ubeskyttet database, og Fortune oppdaget det 26. mars 2026. Modellen heter Claude Mythos, og den beskrives som et «step change» – ikke bare en inkrementell forbedring, men noe kvalitativt annerledes enn det Anthropic har levert før.
Det som gjør dette spesielt interessant – og litt urovekkende – er ikke bare modellens kapabiliteter, men Anthropics egne advarsler om den. De mener selv at Claude Mythos representerer «unprecedented cybersecurity risks». Altså: de har bygget noe de er genuint usikre på.
Lekkasjen eksponerte nesten 3 000 upubliserte filer fra Anthropics innholdssystem. Blant dem var et utkast der selskapet selv advarte om at modellen er «langt foran alle andre AI-modeller innen cyberkapabiliteter» – og at den varsler en «kommende bølge av modeller som kan utnytte sårbarheter på måter som langt overgår forsvaret.»
Hva er Claude Mythos?
Claude Mythos (også omtalt internt som «Capybara») er tilsynelatende en helt ny tier over Anthropics eksisterende Opus-modeller. Det lekkede utkastet beskriver den som «by far the most powerful AI model we’ve ever developed» – den kraftigste de noensinne har utviklet.
Modellen scorer «dramatisk høyere» på tester innen programvarekoding, akademisk resonering og cybersikkerhet sammenlignet med Claude Opus 4.6. En Anthropic-talsperson bekreftet til Fortune at selskapet tester modellen med en liten gruppe early access-kunder.
Det interessante er at Anthropic ikke forsøker å bagatellisere bekymringene. De sier rett ut at cybersikkerhetsrisikoen er uten sidestykke. Det er ikke PR-spin – det virker som en reell faglig vurdering fra folk som har testet hva modellen faktisk klarer.

Hva slags cybersikkerhetsrisiko snakker vi om?
Dette er kjernen i saken – og det er ikke banalt. Anthropics eget utkast hevder at Claude Mythos «presages an upcoming wave of models that can exploit vulnerabilities in ways that far outpace the efforts of defenders.» Oversatt: modellen kan finne og utnytte sikkerhetshull raskere enn forsvarerne klarer å tette dem.
Det er allerede dokumentert at statlige hackere har forsøkt å bruke Claude i reelle angrep. En kinesisk statsfinansiert gruppe gjennomførte ifølge Fortune en koordinert kampanje via Claude Code for å infiltrere rundt 30 organisasjoner. Det skjedde med eksisterende modeller. Spørsmålet er åpenbart hva som skjer når de får tilgang til noe dramatisk kraftigere.
Anthropic planlegger å prioritere cyberforsvarere i første omgang – altså de som skal beskytte systemer, ikke de som vil bryte seg inn. Men dual-use er dual-use. Det finnes ingen teknisk vegg mellom «Claude Mythos som hjelper sikkerhetsteamet med å finne hull» og «Claude Mythos som hjelper noen andre med å finne de samme hullene.»
Dette er ikke første gang Anthropic adresserer dette. Jeg har skrevet om da de avslørte at kinesiske selskaper brukte 24 000 falske kontoer for å høste Claude-kunnskap. Cybersikkerhet og AI-misbruk er tydelig noe Anthropic tar på alvor – men det hjelper ikke så mye hvis modellene blir kraftigere raskere enn forsvarsverk kan skaleres.
Hvordan skjedde lekkasjen?
Her er den litt pinlige biten: Anthropic lagret nettsidens innhold i et sentralt system som var tilgjengelig uten innlogging. Alle med teknisk kunnskap kunne sende spørringer til systemet og be det returnere informasjon om filene det inneholdt – inkludert upubliserte utkast.
Nesten 3 000 eiendeler fra Anthropics blogg lå tilgjengelig i denne cachen. Blant dem: utkastet om Claude Mythos, en PDF med informasjon om et invitasjonsbasert retreat for europeiske CEO-er (med Dario Amodei som deltaker, på et 1700-talls herresete i England), og annet internt materiale.
Anthropic bekrefter at det var menneskelig feil i konfigurasjonen av innholdsstyringssystemet. Etter at Fortune varslet dem torsdag, ble databasen sikret. Klassisk situasjon – sikkerhetsfeilen var triviell, ikke sofistikert. Ingen avansert hacking. Bare en feilkonfigurert CMS.

Er dette faktisk farlig – eller bare skummelt på papiret?
Jeg er litt skeptisk til benchmarks generelt – de forteller ikke alltid hele historien. Men når Anthropic selv, med sine egne ord, sier at modellen de har bygget representerer «unprecedented» risiko, er det vanskelig å avfeie det som markedsføring. Det er jo ikke akkurat et selgende argument: «Kjøp vår nye modell – den er farligst av alle!»
Det er snarere tvert imot. Uttalelsen kom i et internt utkast som ikke var ment for offentligheten. Det tyder på at dette er den faktiske interne vurderingen, ikke PR.
Og det gir mening teknisk sett. Koding og cybersikkerhet henger tett sammen. En modell som er dramatisk bedre på kode, er automatisk dramatisk bedre på å analysere kode for feil – og feil i kode er det cybersikkerheten handler om. Det er ikke en bieffekt. Det er den logiske konsekvensen.
Hva som er verdt å merke seg: Anthropic ser ut til å ha tenkt på dette. De vil prioritere cyberforsvarere, de jobber med early access for å forstå risikobildet før bred lansering. Det er et annet opplegg enn å dumpe modellen på API-et og se hva som skjer. Om det er nok – det vet vi ikke ennå.
Hva betyr dette for deg?
Rent praktisk betyr det at Anthropic er i ferd med å lansere noe vesentlig kraftigere enn Claude Opus 4.6. Timing er ukjent, men early access-testing pågår nå. Jeg bruker Claude Code daglig, og ærlig talt – jeg er spent på hva en «step change» betyr i praksis for koding og resonnering.
Cybersikkerhetsaspektet er reelt, men ikke noe som stopper AI-utvikling – det er heller en grunn til at seriøse aktører som Anthropic trenger å tenke nøye gjennom distribusjon. Markedet og teknologien driver dette fremover uansett. Spørsmålet er om den ansvarlige tilnærmingen henger med i tempoet.
Det som er litt ironisk: En av verdens ledende AI-sikkerhetsselskaper lekket sin mest sensitive interne modell-informasjon via et ukryptert CMS. Det sier noe om at menneskelig feil er den største sikkerhetsrisikoen – ikke modellene selv, i hvert fall ikke ennå.