Anthropic lanserte 9. mars 2026 Code Review — et nytt multi-agent system innebygd i Claude Code. Verktøyet er designet for å automatisk analysere AI-generert kode, flagge logiske feil og hjelpe enterprise-utviklere med å håndtere det voksende volumet av kode som nå produseres med AI-assistanse.

Lanseringen er et direkte svar på et problem mange utviklingsteam kjenner på kroppen: AI-verktøy som GitHub Copilot, Cursor og Claude Code selv genererer nå kode i et tempo som mennesker rett og slett ikke klarer å følge opp manuelt. Noen kaller det «vibe coding» — du ber AI-en skrive kode, den gjør det, og du merger uten å egentlig forstå hva som skjer. Code Review er Anthropics forsøk på å sette en brems på den spiralen.

Her er hva som er nytt, hvordan det fungerer, og hva det betyr for deg som bruker Claude Code.

Hva er Code Review i Claude Code?

Code Review er et multi-agent system — det vil si at det ikke er én enkelt AI som leser koden din, men flere agenter som jobber parallelt og koordinerer analysen. Systemet ser på AI-generert kode fra et annet perspektiv enn den som genererte den, og det er akkurat poenget.

Ifølge TechCrunch fokuserer verktøyet spesielt på å flagge logiske feil — altså kode som syntaktisk er korrekt, men som gjør noe annet enn det du faktisk ønsker. Det er den farligste typen feil i AI-generert kode fordi den passerer linting og mange automatiserte tester uten problemer.

Tenk på det som en kollega som ikke bare sjekker at koden kompilerer, men faktisk spør: «Vent, mente du virkelig å gjøre det her?»

Hvorfor trengs dette akkurat nå?

AI-verktøy for koding har eksplodert i bruk de siste to årene. Selskaper som GitHub rapporterer at en stadig større andel av koden som merges i enterprise-repo er helt eller delvis skrevet av AI. Det er bra for produktiviteten — inntil det ikke er det lenger.

Problemet er ikke at AI skriver dårlig kode. Det er at AI skriver plausibel kode. Kode som ser riktig ut, er godt formatert og følger konvensjoner — men inneholder subtile logikkfeil som kan være vanskelig å oppdage i code review. Spesielt når revieweren selv er sliten etter å ha gått gjennom femten pull requests den dagen.

Anthropic adresserer dette ved å sette en annen AI til å reviewe den første AI-ens arbeid. Det er ikke perfekt, men det er mye bedre enn ingenting.

Illustrasjon av multi-agent system der AI-agenter analyserer kodeflyt parallelt i Anthropics Code Review
Code Review bruker flere AI-agenter som jobber parallelt — hver agent ser koden uten å kjenne intensjonen bak den.

Er dette bare for store bedrifter?

Verktøyet er markedsført mot enterprise-segmentet, og det er ikke tilfeldig. Store utviklingsteam med hundrevis av utviklere og store kodebaser er de som merker problemet med AI-generert kode mest akutt. De har rett og slett ikke nok menneskelige øyne til å holde tritt.

Men Code Review er en del av Claude Code, som jeg har skrevet om tidligere. Og Claude Code er tilgjengelig for alle med et abonnement. Det gjenstår å se om funksjonaliteten er låst til enterprise-tier eller om den rulles ut til alle brukere.

Personlig håper jeg det siste. Logikkfeil i AI-generert kode er ikke et enterprise-problem — det er et problem for alle som bruker AI til å kode, uansett teamstørrelse.

Claude Code har vokst raskt

Det er verdt å sette dette i kontekst. Claude Code har de siste månedene fått Voice Mode, en kraftigere Plan Mode, og nå altså Code Review. Anthropic bygger tydelig ut Claude Code som en komplett plattform for AI-drevet utvikling, ikke bare et autocomplete-verktøy.

Og etter 30 dager med testing er det tydelig at Claude Code er et seriøst verktøy. Code Review er et naturlig neste steg: når AI-en produserer mer kode, trenger du bedre verktøy for å verifisere den.

Utvikler ved arbeidsstasjonen går gjennom kode med feilflagging på skjermen etter Code Review-analyse
Enterprise-utviklere bruker Code Review for å prioritere hvilke deler av AI-generert kode som trenger menneskelig gjennomgang.

Er multi-agent code review en god idé?

Det er et genuint godt spørsmål. Å bruke AI for å reviewe AI-kode høres nesten sirkulært ut — men det er faktisk ikke det i praksis. De to agentene opererer uavhengig og uten den samme «intensjonen» bak koden. Den som genererte koden visste hva den prøvde å gjøre. Revieweren vet bare hva koden faktisk gjør.

Det er forskjellen som gir verdi. En menneskelig utvikler som reviewe sin egen kode har samme blindflekken. En kollega — eller en annen agent — ser det med friske øyne.

Greia er at dette ikke erstatter menneskelig code review. Det er et verktøy som hjelper deg prioritere hva du ser nærmere på. I et team der AI produserer store deler av kodebasen, er det mer realistisk enn å late som om to mennesker kan lese gjennom alt grundig.

Hva betyr dette fremover?

Lanseringen av Code Review er et signal om retningen AI-drevet utvikling tar. Vi er forbi fasen der spørsmålet er «skal vi bruke AI til koding?» — nå handler det om å bygge infrastrukturen rundt AI-koden for å sikre at den er til å stole på.

Forventer vi flere slike verktøy? Absolutt. Automatiserte security scans for AI-generert kode, AI-assistert testgenerering, og bedre dokumentasjonsverktøy er åpenbare neste steg. Anthropic er ikke alene om å se dette — GitHub, Google og JetBrains jobber med lignende løsninger.

For deg som bruker Claude Code: hold øye med om Code Review rulles ut til alle plan i løpet av de nærmeste ukene. Det ser ut til å være et nyttig tillegg til verktøykassen.

Les mer om Claude i Claude AI – pris, funksjoner og norsk guide (2026).

1 kommentar
Legg igjen en kommentar

Din e-postadresse vil ikke bli publisert. Obligatoriske felt er merket med *

Meld deg på nyhetsbrevet

Få oppdateringer om AI nyhetene rett i inboxen!

Du liker kanskje denne også
Jan Sverre arbeider med Suno AI musikk-generering på datamaskinen, kreativt workspace med hodetelefoner

Suno AI – 150 Låter Testet: Hva Funker og Hva Er Bortkastet Tid

Jeg testet 150 Suno-låter og fant tydelige mønstre. Her er hva som faktisk gir kvalitet, og hva som bare kaster bort tid.
Jan Sverre med headphones og lydmikser i boardroom-møte med forvirrede executives

Suno AI Copyright 2026 – Opphavsrett og Rettigheter for AI-Musikk

Kan du tjene penger på Suno-musikk? Her er en praktisk gjennomgang av rettigheter, risiko og hva du bør avklare før publisering.
Jan Sverre riding a dinosaur in safari outfit, photorealistic AI-generated image demonstrating Nano Banana Pro capabilities

Jeg testet Nano Banana Pro: AI som faktisk skriver norsk i bilder

Endelig! En AI som kan generere norsk tekst i bilder med 94% nøyaktighet. Jeg testet Nano Banana Pro grundig – her er resultatene.
Jan Sverre sitter ved sitt kraftige AI-workstation oppsett med ultrawide skjerm og flere PC-er som kjører Ollama og lokale LLM-modeller

Ollama Guide – Kjør AI Gratis og Lokalt på Din Egen PC (2026)

Komplett guide til Ollama og lokale LLM-er på RTX 4090. Lær quantisering, Hugging Face import, beste modeller (Gemma 3, Qwen 3), GDPR-fordeler og full kostnadskontroll.