Anthropic har sluppet en oppgradering som kan endre hvordan vi bygger AI-agenter. Ikke en ny modell denne gangen, men en smartere måte å håndtere verktøy på. De kaller det «Programmatic Tool Calling», og det sparer deg for 37% av tokenene.

Hvis du har brukt Claude eller andre AI-modeller med verktøy vet du problemet: Context-vinduet fylles opp av tool-definisjoner, input, output, og før du vet det er du på 80% kapasitet uten å ha gjort noe nyttig.

Problemet med vanlig tool calling

Slik fungerer det tradisjonelt: Du definerer verktøyene dine som JSON-skjemaer. Disse lastes inn i context-vinduet. Hver gang Claude bruker et verktøy, sendes input og output tilbake til modellen og legges til i konteksten.

Med mange verktøy og flere kall bygger dette seg raskt opp. MCP (Model Context Protocol) – som Anthropic selv lanserte – har faktisk gjort dette verre fordi det blir så enkelt å koble til mange verktøy samtidig. Ironisk nok.

Resultatet? Du bruker tokens på ting som ikke gir verdi. Og det koster – både i penger og i modellens evne til å holde fokus.

Løsningen: La Claude skrive kode i stedet

Programmatic Tool Calling snur dette på hodet. I stedet for at Claude velger verktøy via JSON og får resultater tilbake for hvert kall, skriver den et Python-script som orkestrerer alle verktøyene i en sandbox.

Bare det endelige resultatet – stdout fra scriptet – kommer tilbake til context-vinduet. Alt det mellomliggende forsvinner.

Hvorfor fungerer dette bedre? Fordi LLM-er er trent på kode, ikke på tool calling. Å skrive Python er naturlig for Claude. Å fylle ut JSON-skjemaer er noe vi har tvunget den til å gjøre.

Hva betyr 37% færre tokens i praksis?

La oss si du bygger en agent som skal hente data fra tre kilder, prosessere det, og returnere et svar. Med tradisjonell tool calling blir det kanskje 6-8 round-trips til modellen. Med programmatic tool calling blir det én.

Det betyr:

  • Lavere kostnader (du betaler per token)
  • Raskere responstid (færre API-kall)
  • Bedre kvalitet (modellen har mer plass til å tenke)

For komplekse agenter kan forskjellen være dramatisk. Tenk på Claude Sonnet 4.6 som allerede er mer effektiv enn forgjengeren – kombinert med programmatic tool calling snakker vi plutselig om en helt annen prisklasse.

Hvorfor du bør bry deg

Anthropic har en track record her. De lanserte MCP – nå bygger alle MCP-integrasjoner. De introduserte agent skills – nå har de fleste coding agents dette. Når Anthropic slipper utviklerverktøy, følger industrien etter.

Dette er ikke bare en teknisk optimalisering. Det er et skifte i hvordan vi tenker på AI-agenter. I stedet for å behandle verktøy som noe modellen «velger», lar vi modellen programmere løsningen.

Og det gir mening. Vi har brukt år på å lære disse modellene å kode. Kanskje det er på tide å la dem bruke den ferdigheten.

Hvordan komme i gang

Programmatic Tool Calling er nå generelt tilgjengelig i Claude API. Du trenger ikke endre mye – bare aktivere funksjonen og la Claude skrive kode i stedet for å velge verktøy manuelt.

For de som bygger med Anthropic sine modeller profesjonelt, er dette verdt å teste umiddelbart. 37% færre tokens er 37% lavere kostnad – det merkes på bunnlinjen.

Legg igjen en kommentar

Din e-postadresse vil ikke bli publisert. Obligatoriske felt er merket med *

Meld deg på nyhetsbrevet

Få oppdateringer om AI nyhetene rett i inboxen!

Du liker kanskje denne også
Jan Sverre med headphones og lydmikser i boardroom-møte med forvirrede executives

Suno AI Copyright 2026 – Opphavsrett og Rettigheter for AI-Musikk

Kan du tjene penger på Suno-musikk? Her er en praktisk gjennomgang av rettigheter, risiko og hva du bør avklare før publisering.
Jan Sverre tester GPT-5.2 ved en transparent OpenAI GPT-skjerm

GPT-5.2: Jeg testet OpenAIs nyeste modell – her er hva som faktisk fungerer

GPT-5.2 er ute med tre versjoner. Jeg har testet thinking-modellen, sammenlignet med 5.1, og funnet ut hva som faktisk er bedre. Her er mine erfaringer.
Jan Sverre profesjonelt fotograf-kvalitet portrett AI-generert bildegenerering

Google NotebookLM

Google NotebookLM er en AI-assistent som gjør dokumenter om til interaktive samtaler, studieguidere og podcasts på norsk. Nå drevet av Gemini 3 Pro med nye funksjoner som infographics, slide decks og Deep Research. Komplett guide til gratis vs. Plus-versjon.
Jan Sverre Bauge sitter foran dataskjermer med AI-agent dashboards og meldingsapper i full aktivitet

Hva Er ClawdBot? Open-Source AI-Agent med Sikkerhetsproblemer

Clawdbot er open-source AI-agenten alle snakker om. Slik kommer du i gang – og slik sikrer du deg mot alvorlige sårbarheter.