OpenClaw — den virale AI-assistenten som tidligere het Clawdbot og Moltbot — har fått folk til å lete etter gode lokale alternativer til Claude og GPT. Spesielt for de som vil holde sensitive data på egen maskin, eller rett og slett spare penger på API-kall.
Men hvilken modell fungerer best? Etter å ha saumfart diskusjonene på r/LocalLLaMA, er det noen klare vinnere.
Qwen3-30B-A3B er favoritt
Modellen som går igjen oftest er Qwen3-30B-A3B — en Mixture of Experts-modell som aktiverer rundt 3 milliarder parametere per token, men har 30 milliarder totalt. Dette gir deg mye intelligens uten å spise opp all RAM-en.
For Mac-brukere med 48GB eller mer unified memory er dette et naturlig valg. Modellen er rask, god på strukturerte oppgaver, og etterlater nok minne til andre ting.
En kommentator skriver: «Det har vært min favoritt-LLM på M2 Max i evigheter nå. Anbefaler å kjøre via MLX — det er mer effektivt og 50% raskere enn llama.cpp.»
Tool use er viktigere enn størrelse
Et poeng som ikke får nok oppmerksomhet: For AI-assistenter som OpenClaw er evnen til å bruke verktøy (tool calling) viktigere enn rå parametertelling.
Du vil ha en modell som pålitelig følger function calling-konvensjoner uten å hallusinere verktøyskjemaer. Qwen-modellene scorer høyt her, sammen med de nyere Devstral-modellene fra Mistral.
MLX for Mac-brukere
Hvis du sitter på Apple Silicon, bør du vurdere MLX fremfor llama.cpp. MLX er Apples eget machine learning-rammeverk, optimalisert for deres hardware.
Brukere rapporterer 50% raskere inferens med MLX sammenlignet med standard llama.cpp. Det gjør en merkbar forskjell når du kjører en assistent som skal være responsiv gjennom hele dagen.
Alternativer for Windows/Linux
For de som ikke er på Mac, er det også gode alternativer:
- GPT-OSS 20B — funker, men flere rapporterer at den sliter med OpenClaws kontekstbehov
- Qwen3-32B (full modell, ikke MoE) — krever mer minne, men er solid
- Devstral — Mistrals nye kodingsfokuserte modell, god på tool use
Et ord om sikkerhet
Flere i diskusjonene påpeker noe viktig: Vær forsiktig med hva du gir OpenClaw tilgang til. Selv om du kjører lokalt, er det fortsatt en AI-agent som kan gjøre ting på vegne av deg.
Som en bruker skriver: «Vær sikker på sikkerheten før du gir den for mye tilgang.»
Konklusjon
Hvis du har en Mac med 48GB+ RAM: Kjør Qwen3-30B-A3B via MLX.
For Windows/Linux med kraftig GPU: Prøv Qwen3-32B eller Devstral.
Og uansett plattform: Prioriter modeller med god tool use-støtte fremfor bare å jage parametertall.