NadirClaw er et open source LLM-ruter-rammeverk som løser tre konkrete kostnads- og fleksibilitetsproblemer med Claude Code. Rammeverket er lansert under MIT-lisens, har 377 GitHub-stjerner og fungerer som en drop-in OpenAI-kompatibel proxy mellom kodingsverktøyet ditt og AI-leverandørene – uten tredjeparter i midten.

Kjerneproblemet er enkelt: Claude Code er genuint imponerende ingeniørarbeid. Agent-løkken, verktøydesignet, håndteringen av samtaler over mange runder – det er mye å lære av det. Men prislappen er ikke alltid rettferdig fordelt. Når du ber agenten liste filer eller lese en konfig, trenger du ikke Claude Sonnet til $3 per million tokens. Det er som å bruke en Ferrari til å kjøre til posten.

NadirClaw adresserer akkurat dette. Intelligente ruting-algoritmer klassifiserer hver forespørsel på rundt 10 millisekunder og sender enkle oppgaver til billigere modeller, mens kompleks resonnering forblir hos premiummodellene. Resultatet er 40-70% kostnadskutt uten at kvaliteten synker på arbeidet som faktisk teller.

Hvilke tre pain points løser NadirClaw?

Teamet bak NadirClaw hadde brukt Claude Code seriøst i en periode da de identifiserte tre tilbakevendende problemer. Alle er gjenkjennelige for alle som bruker AI-koding til noe mer enn hobbyprosjekter.

Problem 1: Enkle prompts brenner premium-tokens. I en typisk kodingssesjon er 60-70% av forespørslene trivielle – fillesing, korte spørsmål, enkel formattering. Claude Code sender alt til Claude uansett. Det er dyrt og unødvendig. Gemini 3 Flash eller en lokal Ollama-modell håndterer dette like bra til en brøkdel av prisen.

Problem 2: Kostnadsopasitet. Uten innsyn i faktiske bruksmønstre vet du ikke hvilke forespørsler som faktisk rettferdiggjør premiumprisen. NadirClaw gir full telemetri – rapporter per modell, per dag, og en innebygd kalkulator som viser nøyaktig hva du sparte (og hva du fortsatt bruker).

Problem 3: Leverandørlåsing. Claude Code snakker bare med Claude. Det er ingen måte å rute enkle oppgaver til Gemini Flash, GPT-4.1 mini, eller en lokal modell. NadirClaw bryter denne låsingen: du bruker dine egne API-nøkler, velger modeller selv, og ingen trafikk går via tredjeparter.

Hvor mye kan du faktisk spare?

Et konkret eksempel fra dokumentasjonen: 5 forespørsler sendes gjennom ruten. 3 av dem klassifiseres som enkle og dirigeres til billigere modeller. 2 havner hos premiummodellen. Total kostnad: $0,549. Uten ruting hadde alle 5 gått til premiummodellen – kostnad: $1,37. Det er 60% spart på én runde.

I tillegg til modellruting gjør NadirClaw noe smart med selve konteksten: JSON- og whitespace-komprimering kan kutte input-token-forbruket med 30-70% på strukturerte forespørsler. Det betyr at selv de forespørslene som faktisk havner hos Claude, sender mindre data og koster mindre.

Infographic: kostnadssammenligning uten og med NadirClaw - $1,37 vs $0,549 for 5 forespørsler, 60% spart
Uten ruting: alle 5 forespørsler til premium ($1,37). Med NadirClaw: 3 til billig modell + 2 til premium ($0,549). 60% spart.

Hvilke modeller støttes?

NadirClaw deler modellene i tre nivåer som du selv konfigurerer:

  • Enkelt-nivå: Gemini 3 Flash, Haiku-varianter, Ollama-modeller (llama3.1:8b og lignende). Lave kostnader, rask respons.
  • Mellomnivå: Konfigurerbart mellomsjikt for oppgaver som er for komplekse for enkle modeller, men ikke trenger topptier.
  • Komplekst nivå: Gemini 2.5 Pro, Claude Sonnet, GPT-4, Qwen 32B. Premiumkapasitet for resonnering som faktisk krever det.

Totalt støttes 100+ leverandører via LiteLLM i tillegg til nativ Gemini-støtte via Google GenAI SDK. Det betyr at du kan sette opp lokale Ollama-modeller som gratis enkelt-nivå, og dermed kutte kostnader nesten helt på trivielle oppgaver.

Jeg bruker Claude Code med Pro-abonnementet – og kombinasjonen med et verktøy som NadirClaw er egentlig ganske åpenbar i ettertid. Ikke all koding er like kompleks.

Slik installerer du NadirClaw

Installasjonen er enten én linje eller en manuell pip-install. Enkleste metode:

curl -fsSL https://raw.githubusercontent.com/doramirdor/NadirClaw/main/install.sh | sh

Alternativt via pip:

pip install nadirclaw

Deretter kjører du oppsettveiviseren:

nadirclaw setup
nadirclaw auth add --provider google --key AIza...
nadirclaw serve --verbose

For Claude Code-integrasjon er det en dedikert onboard-kommando som konfigurerer proxyen automatisk. NadirClaw starter en lokal server som Claude Code peker til i stedet for direkte til Anthropic API. Alt kjører lokalt, på din maskin.

Illustrasjon av NadirClaw sin tre-nivå ruting-arkitektur fra enkle Ollama-modeller til premium Claude Sonnet
NadirClaw sin tre-nivå arkitektur: enkle forespørsler til Gemini Flash/Ollama, komplekse til Claude Sonnet eller GPT-4.

Hva er det verdt å følge med på?

Et par ting som er verdt å ha i bakhodet. NadirClaw er et relativt nytt prosjekt – 377 GitHub-stjerner og 46 forks er lovende, men ikke samme størrelsesorden som modne verktøy. MIT-lisensen er god. Kodebasen er Python, og du trenger Python 3.10+.

Rutingklassifiseringen bruker sentence embeddings for å avgjøre oppgavekompleksitet. Det fungerer bra for gjennomsnittlige forespørsler, men det vil alltid finnes kanttilfeller der systemet ruter feil. En kompleks arkitekturbeslutning som er formulert kortfattet kan havne hos Gemini Flash. Det er håndterbart – og du kan justere tersklene selv – men det er noe å teste grundig i ditt eget bruksmønster.

Det er også et mer grunnleggende spørsmål om tillitsmodell: du setter dine egne API-nøkler i en konfigurasjonsfil lokalt. Ingen tredjeparter ser trafikken, noe som faktisk er en fordel. Men du legger alle nøklene ett sted, så sørg for at maskinen er sikret.

For de som bruker Claude Code til mer enn sporadiske prosjekter – og som har merket at API-kostnadene kryper oppover – er NadirClaw verdt å undersøke. Spesielt hvis du allerede har Ollama satt opp lokalt og kan bruke det som gratis enkelt-nivå. Jeg har skrevet om lignende kostnads-vs-kvalitet-avveininger i forbindelse med Anthropics Code Review-funksjon og hva som skjer når Claude Code tar litt for stor kontroll – verktøy som gir deg mer styring over agentens atferd er generelt bra.

GitHub-repositoriet ligger på NadirRouter/NadirClaw. Dokumentasjonen er oversiktlig, og oppsett-veiviseren er interaktiv nok til at du ikke trenger å lese halve README-en for å komme i gang.

Legg igjen en kommentar

Din e-postadresse vil ikke bli publisert. Obligatoriske felt er merket med *

Meld deg på nyhetsbrevet

Få oppdateringer om AI nyhetene rett i inboxen!

Du liker kanskje denne også
Jan Sverre arbeider med Suno AI musikk-generering på datamaskinen, kreativt workspace med hodetelefoner

Suno AI – 150 Låter Testet: Hva Funker og Hva Er Bortkastet Tid

Jeg testet 150 Suno-låter og fant tydelige mønstre. Her er hva som faktisk gir kvalitet, og hva som bare kaster bort tid.
Jan Sverre med headphones og lydmikser i boardroom-møte med forvirrede executives

Suno AI Copyright 2026 – Opphavsrett og Rettigheter for AI-Musikk

Kan du tjene penger på Suno-musikk? Her er en praktisk gjennomgang av rettigheter, risiko og hva du bør avklare før publisering.
Jan Sverre riding a dinosaur in safari outfit, photorealistic AI-generated image demonstrating Nano Banana Pro capabilities

Jeg testet Nano Banana Pro: AI som faktisk skriver norsk i bilder

Endelig! En AI som kan generere norsk tekst i bilder med 94% nøyaktighet. Jeg testet Nano Banana Pro grundig – her er resultatene.
Jan Sverre tester GPT-5.2 ved en transparent OpenAI GPT-skjerm

GPT-5.2: Jeg testet OpenAIs nyeste modell – her er hva som faktisk fungerer

GPT-5.2 er ute med tre versjoner. Jeg har testet thinking-modellen, sammenlignet med 5.1, og funnet ut hva som faktisk er bedre. Her er mine erfaringer.