Anthropic er i ferd med å lansere det de beskriver som sin kraftigste AI-modell noensinne – og den ble tilfeldigvis avslørt av et klassisk konfigurasjonsfeil. Et utkast til blogginnlegg lå åpent i en ubeskyttet database, og Fortune oppdaget det 26. mars 2026. Modellen heter Claude Mythos, og den beskrives som et «step change» – ikke bare en inkrementell forbedring, men noe kvalitativt annerledes enn det Anthropic har levert før.

Det som gjør dette spesielt interessant – og litt urovekkende – er ikke bare modellens kapabiliteter, men Anthropics egne advarsler om den. De mener selv at Claude Mythos representerer «unprecedented cybersecurity risks». Altså: de har bygget noe de er genuint usikre på.

Lekkasjen eksponerte nesten 3 000 upubliserte filer fra Anthropics innholdssystem. Blant dem var et utkast der selskapet selv advarte om at modellen er «langt foran alle andre AI-modeller innen cyberkapabiliteter» – og at den varsler en «kommende bølge av modeller som kan utnytte sårbarheter på måter som langt overgår forsvaret.»

Hva er Claude Mythos?

Claude Mythos (også omtalt internt som «Capybara») er tilsynelatende en helt ny tier over Anthropics eksisterende Opus-modeller. Det lekkede utkastet beskriver den som «by far the most powerful AI model we’ve ever developed» – den kraftigste de noensinne har utviklet.

Modellen scorer «dramatisk høyere» på tester innen programvarekoding, akademisk resonering og cybersikkerhet sammenlignet med Claude Opus 4.6. En Anthropic-talsperson bekreftet til Fortune at selskapet tester modellen med en liten gruppe early access-kunder.

Det interessante er at Anthropic ikke forsøker å bagatellisere bekymringene. De sier rett ut at cybersikkerhetsrisikoen er uten sidestykke. Det er ikke PR-spin – det virker som en reell faglig vurdering fra folk som har testet hva modellen faktisk klarer.

Abstrakt illustrasjon av Claude Mythos AI-kjerne omgitt av cybersikkerhetsikoner - dual-use dilemma med skjold som forsterkes og sprekker
Dual-use-dilemmaet: den samme kapabiliteten som gjør Claude Mythos til et kraftig forsvarsverktøy, gjør den potensielt farlig i feil hender.

Hva slags cybersikkerhetsrisiko snakker vi om?

Dette er kjernen i saken – og det er ikke banalt. Anthropics eget utkast hevder at Claude Mythos «presages an upcoming wave of models that can exploit vulnerabilities in ways that far outpace the efforts of defenders.» Oversatt: modellen kan finne og utnytte sikkerhetshull raskere enn forsvarerne klarer å tette dem.

Det er allerede dokumentert at statlige hackere har forsøkt å bruke Claude i reelle angrep. En kinesisk statsfinansiert gruppe gjennomførte ifølge Fortune en koordinert kampanje via Claude Code for å infiltrere rundt 30 organisasjoner. Det skjedde med eksisterende modeller. Spørsmålet er åpenbart hva som skjer når de får tilgang til noe dramatisk kraftigere.

Anthropic planlegger å prioritere cyberforsvarere i første omgang – altså de som skal beskytte systemer, ikke de som vil bryte seg inn. Men dual-use er dual-use. Det finnes ingen teknisk vegg mellom «Claude Mythos som hjelper sikkerhetsteamet med å finne hull» og «Claude Mythos som hjelper noen andre med å finne de samme hullene.»

Dette er ikke første gang Anthropic adresserer dette. Jeg har skrevet om da de avslørte at kinesiske selskaper brukte 24 000 falske kontoer for å høste Claude-kunnskap. Cybersikkerhet og AI-misbruk er tydelig noe Anthropic tar på alvor – men det hjelper ikke så mye hvis modellene blir kraftigere raskere enn forsvarsverk kan skaleres.

Hvordan skjedde lekkasjen?

Her er den litt pinlige biten: Anthropic lagret nettsidens innhold i et sentralt system som var tilgjengelig uten innlogging. Alle med teknisk kunnskap kunne sende spørringer til systemet og be det returnere informasjon om filene det inneholdt – inkludert upubliserte utkast.

Nesten 3 000 eiendeler fra Anthropics blogg lå tilgjengelig i denne cachen. Blant dem: utkastet om Claude Mythos, en PDF med informasjon om et invitasjonsbasert retreat for europeiske CEO-er (med Dario Amodei som deltaker, på et 1700-talls herresete i England), og annet internt materiale.

Anthropic bekrefter at det var menneskelig feil i konfigurasjonen av innholdsstyringssystemet. Etter at Fortune varslet dem torsdag, ble databasen sikret. Klassisk situasjon – sikkerhetsfeilen var triviell, ikke sofistikert. Ingen avansert hacking. Bare en feilkonfigurert CMS.

Infografikk som viser database med 3000 eksponerte filer fra Anthropics CMS-konfigurasjonsfeil i mars 2026
Nesten 3 000 upubliserte filer lå åpent tilgjengelig i Anthropics innholdssystem – inkludert utkastet som avslørte Claude Mythos.

Er dette faktisk farlig – eller bare skummelt på papiret?

Jeg er litt skeptisk til benchmarks generelt – de forteller ikke alltid hele historien. Men når Anthropic selv, med sine egne ord, sier at modellen de har bygget representerer «unprecedented» risiko, er det vanskelig å avfeie det som markedsføring. Det er jo ikke akkurat et selgende argument: «Kjøp vår nye modell – den er farligst av alle!»

Det er snarere tvert imot. Uttalelsen kom i et internt utkast som ikke var ment for offentligheten. Det tyder på at dette er den faktiske interne vurderingen, ikke PR.

Og det gir mening teknisk sett. Koding og cybersikkerhet henger tett sammen. En modell som er dramatisk bedre på kode, er automatisk dramatisk bedre på å analysere kode for feil – og feil i kode er det cybersikkerheten handler om. Det er ikke en bieffekt. Det er den logiske konsekvensen.

Hva som er verdt å merke seg: Anthropic ser ut til å ha tenkt på dette. De vil prioritere cyberforsvarere, de jobber med early access for å forstå risikobildet før bred lansering. Det er et annet opplegg enn å dumpe modellen på API-et og se hva som skjer. Om det er nok – det vet vi ikke ennå.

Hva betyr dette for deg?

Rent praktisk betyr det at Anthropic er i ferd med å lansere noe vesentlig kraftigere enn Claude Opus 4.6. Timing er ukjent, men early access-testing pågår nå. Jeg bruker Claude Code daglig, og ærlig talt – jeg er spent på hva en «step change» betyr i praksis for koding og resonnering.

Cybersikkerhetsaspektet er reelt, men ikke noe som stopper AI-utvikling – det er heller en grunn til at seriøse aktører som Anthropic trenger å tenke nøye gjennom distribusjon. Markedet og teknologien driver dette fremover uansett. Spørsmålet er om den ansvarlige tilnærmingen henger med i tempoet.

Det som er litt ironisk: En av verdens ledende AI-sikkerhetsselskaper lekket sin mest sensitive interne modell-informasjon via et ukryptert CMS. Det sier noe om at menneskelig feil er den største sikkerhetsrisikoen – ikke modellene selv, i hvert fall ikke ennå.

Legg igjen en kommentar

Din e-postadresse vil ikke bli publisert. Obligatoriske felt er merket med *

Meld deg på nyhetsbrevet

Få oppdateringer om AI nyhetene rett i inboxen!

Du liker kanskje denne også
Jan Sverre med headphones og lydmikser i boardroom-møte med forvirrede executives

Suno AI Copyright 2026 – Opphavsrett og Rettigheter for AI-Musikk

Kan du tjene penger på Suno-musikk? Her er en praktisk gjennomgang av rettigheter, risiko og hva du bør avklare før publisering.
Jan Sverre tester GPT-5.2 ved en transparent OpenAI GPT-skjerm

GPT-5.2: Jeg testet OpenAIs nyeste modell – her er hva som faktisk fungerer

GPT-5.2 er ute med tre versjoner. Jeg har testet thinking-modellen, sammenlignet med 5.1, og funnet ut hva som faktisk er bedre. Her er mine erfaringer.
Jan Sverre profesjonelt fotograf-kvalitet portrett AI-generert bildegenerering

Google NotebookLM

Google NotebookLM er en AI-assistent som gjør dokumenter om til interaktive samtaler, studieguidere og podcasts på norsk. Nå drevet av Gemini 3 Pro med nye funksjoner som infographics, slide decks og Deep Research. Komplett guide til gratis vs. Plus-versjon.
Jan Sverre Bauge sitter foran dataskjermer med AI-agent dashboards og meldingsapper i full aktivitet

Hva Er ClawdBot? Open-Source AI-Agent med Sikkerhetsproblemer

Clawdbot er open-source AI-agenten alle snakker om. Slik kommer du i gang – og slik sikrer du deg mot alvorlige sårbarheter.