Jan Sverre ser opp med åpen munn på en gigantisk eksponentiell kurve som reiser seg som en tsunami over ham
AI-evnene dobler seg nå raskere enn noen trodde. Claude Opus 4.6 og meter.research beviser det.

Mange trodde AI-utviklingen ville flate ut snart. De tok feil. Jeg har fulgt med på AI i flere år, og vi har akkurat passert et vendepunkt. Akselerasjonen i AI-evner går nå raskere enn den berømte 7-måneders doblingshastigheten. Og beviset heter Claude Opus 4.6.

Nylig kom en analyse fra meter.research, en non-profit som evaluerer frontier-modeller. De måler ikke hvor raskt AI gjør en oppgave, men hvor mange timer en menneskelig ekspert ville brukt på den samme oppgaven. Da Anthropic nylig slapp Opus 4.6, knuste den alle forventninger ved å treffe 14,5-timersmerket på 80%-grensen i deres krevende test.

Hva betyr dette i praksis? Det betyr at Opus 4.6 nå kan løse komplekse problemer innen koding og cybersikkerhet som ville tatt en ekspert nesten to fulle arbeidsdager. Noen brukte nettopp denne modellen via Claude Code til å rydde unna måneders regnskapsarbeid på 30-40 minutter mens de spilte videospill – arbeid en regnskapsfører ville tatt seg grovt betalt for. Og hvis du lurer på om den er verdt prisen, så har de også lansert Sonnet 4.6, som gir deg Opus-kvalitet til en femtedel av prisen.

Programmering er løst

Skaperen av Claude Code var nylig klokkeklar: Koding er i praksis løst. Hos Anthropic koder nå forretningsfolk, prosjektledere og designere helt uten utviklerbakgrunn. AI gjør hele jobben for dem, og nærmere 100% av all kode som skrives internt i selskapet, er AI-generert.

Dette er ikke bare et Anthropic-fenomen. Vi ser allerede konturene av selvreplikerende og selvforbedrende systemer. Ifølge troverdige rapporter ble OpenAIs nye GPT-5.3 Codex delvis kodet av modellen selv under treningen.

Dette skiftet fjerner flaskehalsen i programvareutvikling. Det betyr at hvem som helst med en idé kan bygge den. Du trenger ikke lenger hyre et dyrt byrå eller lære deg React fra bunnen av. Bare be agenten om å bygge det for deg.

Nærmer vi oss singulariteten?

Sam Altman uttalte 20. februar at «verden ikke er forberedt», og at takeoff-hastigheten blir mye raskere enn han opprinnelig trodde. Det er store ord, men de underbygges av det vi ser i benchmarks fra meter.research.

Anthropic-topp Dario Amodei mener vi nærmer oss slutten av den eksponentielle kurven for selve grunnteknologien. Men han mener ikke at vi treffer et platå – han mener vi nærmer oss slutten på spillet. Gapet fra det vi kaller AGI (Artificial General Intelligence) til superintelligens kan bli ufattelig kort på grunn av denne vanvittige farten.

Elon Musk er enda mer bombastisk, og sa i januar at «vi har gått inn i singulariteten. 2026 er singularitetens år». Om det er 2026 eller 2027 spiller kanskje ikke så stor rolle. Det som er sikkert, er at hvis du ikke bruker AI aktivt i dagens arbeidsliv, risikerer du å bli stående igjen på perrongen. Du kan lese mer om visjonene til selskapene som driver dette fremover hos Anthropic.

Legg igjen en kommentar

Din e-postadresse vil ikke bli publisert. Obligatoriske felt er merket med *

Du liker kanskje denne også

OpenAI svarer med GPT-5.3 Codex — selvforbedrende AI som bygget seg selv

Kun 15 minutter etter at Anthropic slapp Claude Opus 4.6, kontret OpenAI…

LTX Video 2: Den lokale video-AI-modellen som faktisk fungerer

LTX Video 2 er en open source video-AI som kjører lokalt på forbruker-hardware. Jeg testet den ved å lage en komplett AI-generert skrekkhistorie.

Step-3.5-Flash slår DeepSeek og GLM — og er gratis på OpenRouter

Step-3.5-Flash fra kinesiske Stepfun slår både DeepSeek V3.2 og GLM-4.7 på viktige benchmarks – og er nå gratis tilgjengelig på OpenRouter.

Kimi K2.5: Kinas svar på de store AI-modellene

Moonshot AI har sluppet Kimi K2.5 – en åpen kildemodell som dominerer benchmarks og koster en brøkdel av konkurrentene.