Jan Sverre holder to kraftige energistrømmer fra øst og vest fra hverandre - symboliserer dragkampen mellom kinesisk og vestlig AI

DeepSeek – den kinesiske AI-utfordreren forklart (2026)

DeepSeek er det kinesiske AI-selskapet som sjokkerte Silicon Valley og senket Nvidia-aksjen 18 % på én dag. Her er alt du trenger å vite om modellene, prisene, sensureringen og personvernproblemene – og hvem som faktisk bør bruke det.
Jan Sverre oppdager skjulte funksjoner i den lekkede Claude Code kildekoden på flere skjermer

Claude Code-lekkasjen avslørte Anthropics planer – KAIROS, Buddy og Undercover-modus

Anthropics Claude Code-kildekode lekket via npm 31. mars 2026. Analysen avslørte KAIROS – en alltid-på bakgrunnsagent med nattlig «dreaming», Buddy – et Tamagotchi-kjæledyr med 18 arter, og Undercover-modus som skjuler at AI-en bidrar i åpen kildekode-prosjekter.
Greg Brockman OpenAI president ser opp på stor skjerm med AGI-tidslinje i moderne auditorium

Greg Brockman: OpenAI er 70-80 prosent fremme mot AGI

OpenAI-president Greg Brockman sier han er 70-80 prosent sikker på at vi har nådd AGI – og at full AGI er innen rekkevidde de neste to årene. Men hva betyr egentlig disse tallene når ingen er enige om definisjonen?
Jan Sverre Bauge analyserer Claude Code sourcemap med TypeScript-kode og animasjonskeyframes på holografiske skjermer

Claude Code gjenbygget fra sourcemap – fungerende executable med egendefinert animasjon

En utvikler har gjenbygget en fullt fungerende Claude Code-executable fra den lekkede sourcemap-filen – og brukte Claude selv til å rekonstruere node_modules-treet. Computer Use bekreftet fungerende. Her er hva som skjedde og hva kildekoden avslørte.
Jan Sverre forsøker å stoppe et git-tre i brann mens Claude Code automatisk kjører git reset --hard

Claude Code og git reset –hard – hva skjedde og hva betyr det

Claude Code versjon 2.1.87 kjørte git reset –hard origin/main hvert 10. minutt uten varsel, og slettet ucommittede endringer stille. Anthropic lukket issuet som NOT PLANNED. Her er hva som skjedde, hvem som er utsatt, og hva du kan gjøre.
Mann som griper tak i en glødende rød kodenode fra et Linux-kjerne-sårbarhetskart, cyberpunk estetikk

Claude finner Linux-sårbarheter fra 2003 – bedre enn den beste sikkerhetsforskeren

Nicholas Carlini – 67 200 siteringer på Google Scholar, Research Scientist hos Anthropic – sier Claude er en bedre sikkerhetsresearcher enn ham selv. Han viser hvorfor: en 20 år gammel Linux-kjernesårbarhet, første kritiske CVE i Ghost CMS, og 3,7 millioner dollar fra smarte kontrakter.
Norsk mann i svart hettegenser holder digitalt skjold mot AI-baserte cyberangrep - illustrasjon av AI som sikkerhetstrussel mot Norge

AI som våpen mot Norge – vi er mer sårbare enn vi tror

PST, NSM og Etterretningstjenesten advarer: AI kan brukes som presisjonsvåpen mot Norge. Vi er åpne, tillitsbaserte og digitalt avanserte – og det er akkurat det som gjør oss sårbare. Her er hva ekspertene faktisk bekymrer seg for.
Jan Sverre studerer sprekker i et holografisk sikkerhetssskjold mens kode og data siver ut - illustrerer Claude Mythos cybersikkerhetsrisiko

Claude Mythos – Anthropics kraftigste AI-modell avslørt via datalekkasje

Anthropic er i ferd med å lansere Claude Mythos – en modell de selv beskriver som et «step change» og som ifølge egne lekkede dokumenter representerer «unprecedented cybersecurity risks». Eksistensen ble avslørt da nesten 3 000 upubliserte filer lå åpent i en ubeskyttet database.
Jan Sverre analyserer LiteLLM supply chain-angrep foran skjermer med kode og feilmeldinger i mørkt rom

LiteLLM supply chain-angrep – slik ble 3,4 millioner daglige nedlastinger kompromittert

LiteLLM versjon 1.82.7 og 1.82.8 ble 24. mars 2026 kompromittert med credential-stjeler skadevare. TeamPCP brukte Trivy-sikkerhetsskanneren som springbrett for å stjele LiteLLMs PyPI-token – og dermed API-nøkler, SSH-nøkler og skykredentialer fra 3,4 millioner daglige nedlastinger. Her er hva som skjedde og hva du bør gjøre.
Claude code auto mode jan sverre

Claude Code auto mode – sikrere autonomi uten konstant godkjenning

Anthropic lanserte auto mode for Claude Code 24. mars 2026 – en ny tillatelsesmodus der en AI-klassifikator vurderer om handlinger er trygge nok til å kjøre uten menneskelig godkjenning. Her er hva det betyr i praksis.