OpenClaw — den virale AI-assistenten som tidligere het Clawdbot og Moltbot — har fått folk til å lete etter gode lokale alternativer til Claude og GPT. Spesielt for de som vil holde sensitive data på egen maskin, eller rett og slett spare penger på API-kall.

Men hvilken modell fungerer best? Etter å ha saumfart diskusjonene på r/LocalLLaMA, er det noen klare vinnere.

Qwen3-30B-A3B er favoritt

Modellen som går igjen oftest er Qwen3-30B-A3B — en Mixture of Experts-modell som aktiverer rundt 3 milliarder parametere per token, men har 30 milliarder totalt. Dette gir deg mye intelligens uten å spise opp all RAM-en.

For Mac-brukere med 48GB eller mer unified memory er dette et naturlig valg. Modellen er rask, god på strukturerte oppgaver, og etterlater nok minne til andre ting.

En kommentator skriver: «Det har vært min favoritt-LLM på M2 Max i evigheter nå. Anbefaler å kjøre via MLX — det er mer effektivt og 50% raskere enn llama.cpp.»

Tool use er viktigere enn størrelse

Et poeng som ikke får nok oppmerksomhet: For AI-assistenter som OpenClaw er evnen til å bruke verktøy (tool calling) viktigere enn rå parametertelling.

Du vil ha en modell som pålitelig følger function calling-konvensjoner uten å hallusinere verktøyskjemaer. Qwen-modellene scorer høyt her, sammen med de nyere Devstral-modellene fra Mistral.

MLX for Mac-brukere

Hvis du sitter på Apple Silicon, bør du vurdere MLX fremfor llama.cpp. MLX er Apples eget machine learning-rammeverk, optimalisert for deres hardware.

Brukere rapporterer 50% raskere inferens med MLX sammenlignet med standard llama.cpp. Det gjør en merkbar forskjell når du kjører en assistent som skal være responsiv gjennom hele dagen.

Alternativer for Windows/Linux

For de som ikke er på Mac, er det også gode alternativer:

  • GPT-OSS 20B — funker, men flere rapporterer at den sliter med OpenClaws kontekstbehov
  • Qwen3-32B (full modell, ikke MoE) — krever mer minne, men er solid
  • Devstral — Mistrals nye kodingsfokuserte modell, god på tool use

Et ord om sikkerhet

Flere i diskusjonene påpeker noe viktig: Vær forsiktig med hva du gir OpenClaw tilgang til. Selv om du kjører lokalt, er det fortsatt en AI-agent som kan gjøre ting på vegne av deg.

Som en bruker skriver: «Vær sikker på sikkerheten før du gir den for mye tilgang.»

Konklusjon

Hvis du har en Mac med 48GB+ RAM: Kjør Qwen3-30B-A3B via MLX.

For Windows/Linux med kraftig GPU: Prøv Qwen3-32B eller Devstral.

Og uansett plattform: Prioriter modeller med god tool use-støtte fremfor bare å jage parametertall.

3 kommentarer
Legg igjen en kommentar

Din e-postadresse vil ikke bli publisert. Obligatoriske felt er merket med *

Meld deg på nyhetsbrevet

Få oppdateringer om AI nyhetene rett i inboxen!

Du liker kanskje denne også
Jan Sverre arbeider med Suno AI musikk-generering på datamaskinen, kreativt workspace med hodetelefoner

Suno AI – 150 Låter Testet: Hva Funker og Hva Er Bortkastet Tid

Jeg testet 150 Suno-låter og fant tydelige mønstre. Her er hva som faktisk gir kvalitet, og hva som bare kaster bort tid.
Jan Sverre med headphones og lydmikser i boardroom-møte med forvirrede executives

Suno AI Copyright 2026 – Opphavsrett og Rettigheter for AI-Musikk

Kan du tjene penger på Suno-musikk? Her er en praktisk gjennomgang av rettigheter, risiko og hva du bør avklare før publisering.
Jan Sverre riding a dinosaur in safari outfit, photorealistic AI-generated image demonstrating Nano Banana Pro capabilities

Jeg testet Nano Banana Pro: AI som faktisk skriver norsk i bilder

Endelig! En AI som kan generere norsk tekst i bilder med 94% nøyaktighet. Jeg testet Nano Banana Pro grundig – her er resultatene.
Jan Sverre sitter ved sitt kraftige AI-workstation oppsett med ultrawide skjerm og flere PC-er som kjører Ollama og lokale LLM-modeller

Ollama Guide – Kjør AI Gratis og Lokalt på Din Egen PC (2026)

Komplett guide til Ollama og lokale LLM-er på RTX 4090. Lær quantisering, Hugging Face import, beste modeller (Gemma 3, Qwen 3), GDPR-fordeler og full kostnadskontroll.