Innhold Vis
NadirClaw er et open source LLM-ruter-rammeverk som løser tre konkrete kostnads- og fleksibilitetsproblemer med Claude Code. Rammeverket er lansert under MIT-lisens, har 377 GitHub-stjerner og fungerer som en drop-in OpenAI-kompatibel proxy mellom kodingsverktøyet ditt og AI-leverandørene – uten tredjeparter i midten.
Kjerneproblemet er enkelt: Claude Code er genuint imponerende ingeniørarbeid. Agent-løkken, verktøydesignet, håndteringen av samtaler over mange runder – det er mye å lære av det. Men prislappen er ikke alltid rettferdig fordelt. Når du ber agenten liste filer eller lese en konfig, trenger du ikke Claude Sonnet til $3 per million tokens. Det er som å bruke en Ferrari til å kjøre til posten.
NadirClaw adresserer akkurat dette. Intelligente ruting-algoritmer klassifiserer hver forespørsel på rundt 10 millisekunder og sender enkle oppgaver til billigere modeller, mens kompleks resonnering forblir hos premiummodellene. Resultatet er 40-70% kostnadskutt uten at kvaliteten synker på arbeidet som faktisk teller.
Hvilke tre pain points løser NadirClaw?
Teamet bak NadirClaw hadde brukt Claude Code seriøst i en periode da de identifiserte tre tilbakevendende problemer. Alle er gjenkjennelige for alle som bruker AI-koding til noe mer enn hobbyprosjekter.
Problem 1: Enkle prompts brenner premium-tokens. I en typisk kodingssesjon er 60-70% av forespørslene trivielle – fillesing, korte spørsmål, enkel formattering. Claude Code sender alt til Claude uansett. Det er dyrt og unødvendig. Gemini 3 Flash eller en lokal Ollama-modell håndterer dette like bra til en brøkdel av prisen.
Problem 2: Kostnadsopasitet. Uten innsyn i faktiske bruksmønstre vet du ikke hvilke forespørsler som faktisk rettferdiggjør premiumprisen. NadirClaw gir full telemetri – rapporter per modell, per dag, og en innebygd kalkulator som viser nøyaktig hva du sparte (og hva du fortsatt bruker).
Problem 3: Leverandørlåsing. Claude Code snakker bare med Claude. Det er ingen måte å rute enkle oppgaver til Gemini Flash, GPT-4.1 mini, eller en lokal modell. NadirClaw bryter denne låsingen: du bruker dine egne API-nøkler, velger modeller selv, og ingen trafikk går via tredjeparter.
Hvor mye kan du faktisk spare?
Et konkret eksempel fra dokumentasjonen: 5 forespørsler sendes gjennom ruten. 3 av dem klassifiseres som enkle og dirigeres til billigere modeller. 2 havner hos premiummodellen. Total kostnad: $0,549. Uten ruting hadde alle 5 gått til premiummodellen – kostnad: $1,37. Det er 60% spart på én runde.
I tillegg til modellruting gjør NadirClaw noe smart med selve konteksten: JSON- og whitespace-komprimering kan kutte input-token-forbruket med 30-70% på strukturerte forespørsler. Det betyr at selv de forespørslene som faktisk havner hos Claude, sender mindre data og koster mindre.

Hvilke modeller støttes?
NadirClaw deler modellene i tre nivåer som du selv konfigurerer:
- Enkelt-nivå: Gemini 3 Flash, Haiku-varianter, Ollama-modeller (llama3.1:8b og lignende). Lave kostnader, rask respons.
- Mellomnivå: Konfigurerbart mellomsjikt for oppgaver som er for komplekse for enkle modeller, men ikke trenger topptier.
- Komplekst nivå: Gemini 2.5 Pro, Claude Sonnet, GPT-4, Qwen 32B. Premiumkapasitet for resonnering som faktisk krever det.
Totalt støttes 100+ leverandører via LiteLLM i tillegg til nativ Gemini-støtte via Google GenAI SDK. Det betyr at du kan sette opp lokale Ollama-modeller som gratis enkelt-nivå, og dermed kutte kostnader nesten helt på trivielle oppgaver.
Jeg bruker Claude Code med Pro-abonnementet – og kombinasjonen med et verktøy som NadirClaw er egentlig ganske åpenbar i ettertid. Ikke all koding er like kompleks.
Slik installerer du NadirClaw
Installasjonen er enten én linje eller en manuell pip-install. Enkleste metode:
curl -fsSL https://raw.githubusercontent.com/doramirdor/NadirClaw/main/install.sh | sh
Alternativt via pip:
pip install nadirclaw
Deretter kjører du oppsettveiviseren:
nadirclaw setup
nadirclaw auth add --provider google --key AIza...
nadirclaw serve --verbose
For Claude Code-integrasjon er det en dedikert onboard-kommando som konfigurerer proxyen automatisk. NadirClaw starter en lokal server som Claude Code peker til i stedet for direkte til Anthropic API. Alt kjører lokalt, på din maskin.

Hva er det verdt å følge med på?
Et par ting som er verdt å ha i bakhodet. NadirClaw er et relativt nytt prosjekt – 377 GitHub-stjerner og 46 forks er lovende, men ikke samme størrelsesorden som modne verktøy. MIT-lisensen er god. Kodebasen er Python, og du trenger Python 3.10+.
Rutingklassifiseringen bruker sentence embeddings for å avgjøre oppgavekompleksitet. Det fungerer bra for gjennomsnittlige forespørsler, men det vil alltid finnes kanttilfeller der systemet ruter feil. En kompleks arkitekturbeslutning som er formulert kortfattet kan havne hos Gemini Flash. Det er håndterbart – og du kan justere tersklene selv – men det er noe å teste grundig i ditt eget bruksmønster.
Det er også et mer grunnleggende spørsmål om tillitsmodell: du setter dine egne API-nøkler i en konfigurasjonsfil lokalt. Ingen tredjeparter ser trafikken, noe som faktisk er en fordel. Men du legger alle nøklene ett sted, så sørg for at maskinen er sikret.
For de som bruker Claude Code til mer enn sporadiske prosjekter – og som har merket at API-kostnadene kryper oppover – er NadirClaw verdt å undersøke. Spesielt hvis du allerede har Ollama satt opp lokalt og kan bruke det som gratis enkelt-nivå. Jeg har skrevet om lignende kostnads-vs-kvalitet-avveininger i forbindelse med Anthropics Code Review-funksjon og hva som skjer når Claude Code tar litt for stor kontroll – verktøy som gir deg mer styring over agentens atferd er generelt bra.
GitHub-repositoriet ligger på NadirRouter/NadirClaw. Dokumentasjonen er oversiktlig, og oppsett-veiviseren er interaktiv nok til at du ikke trenger å lese halve README-en for å komme i gang.