Lokale AI-modeller for OpenClaw - Qwen og MLX oppsett
Qwen3-30B-A3B via MLX er den foretrukne kombinasjonen for Mac-brukere.

OpenClaw — den virale AI-assistenten som tidligere het Clawdbot og Moltbot — har fått folk til å lete etter gode lokale alternativer til Claude og GPT. Spesielt for de som vil holde sensitive data på egen maskin, eller rett og slett spare penger på API-kall.

Men hvilken modell fungerer best? Etter å ha saumfart diskusjonene på r/LocalLLaMA, er det noen klare vinnere.

Qwen3-30B-A3B er favoritt

Modellen som går igjen oftest er Qwen3-30B-A3B — en Mixture of Experts-modell som aktiverer rundt 3 milliarder parametere per token, men har 30 milliarder totalt. Dette gir deg mye intelligens uten å spise opp all RAM-en.

For Mac-brukere med 48GB eller mer unified memory er dette et naturlig valg. Modellen er rask, god på strukturerte oppgaver, og etterlater nok minne til andre ting.

En kommentator skriver: «Det har vært min favoritt-LLM på M2 Max i evigheter nå. Anbefaler å kjøre via MLX — det er mer effektivt og 50% raskere enn llama.cpp.»

Tool use er viktigere enn størrelse

Et poeng som ikke får nok oppmerksomhet: For AI-assistenter som OpenClaw er evnen til å bruke verktøy (tool calling) viktigere enn rå parametertelling.

Du vil ha en modell som pålitelig følger function calling-konvensjoner uten å hallusinere verktøyskjemaer. Qwen-modellene scorer høyt her, sammen med de nyere Devstral-modellene fra Mistral.

MLX for Mac-brukere

Hvis du sitter på Apple Silicon, bør du vurdere MLX fremfor llama.cpp. MLX er Apples eget machine learning-rammeverk, optimalisert for deres hardware.

Brukere rapporterer 50% raskere inferens med MLX sammenlignet med standard llama.cpp. Det gjør en merkbar forskjell når du kjører en assistent som skal være responsiv gjennom hele dagen.

Alternativer for Windows/Linux

For de som ikke er på Mac, er det også gode alternativer:

  • GPT-OSS 20B — funker, men flere rapporterer at den sliter med OpenClaws kontekstbehov
  • Qwen3-32B (full modell, ikke MoE) — krever mer minne, men er solid
  • Devstral — Mistrals nye kodingsfokuserte modell, god på tool use

Et ord om sikkerhet

Flere i diskusjonene påpeker noe viktig: Vær forsiktig med hva du gir OpenClaw tilgang til. Selv om du kjører lokalt, er det fortsatt en AI-agent som kan gjøre ting på vegne av deg.

Som en bruker skriver: «Vær sikker på sikkerheten før du gir den for mye tilgang.»

Konklusjon

Hvis du har en Mac med 48GB+ RAM: Kjør Qwen3-30B-A3B via MLX.

For Windows/Linux med kraftig GPU: Prøv Qwen3-32B eller Devstral.

Og uansett plattform: Prioriter modeller med god tool use-støtte fremfor bare å jage parametertall.

Legg igjen en kommentar

Din e-postadresse vil ikke bli publisert. Obligatoriske felt er merket med *

You May Also Like

Jeg lagde 150 sanger med Suno AI – Her er hva jeg lærte

8 måneders erfaring med Suno AI-musikk. Engelsk er topp, norsk er greit nok. Tippoldefars dikt ble til sanger. Ærlig vurdering fra 150+ genererte låter.

Suno AI Copyright – Hva du trenger å vite om rettigheter (2025)

Komplett guide til Suno AI copyright-regler. Pro vs Free, kommersielt bruk, juridiske fallgruver og profesjonelle tips. Oppdatert ToS november 2025.

Jeg testet Nano Banana Pro: AI som faktisk skriver norsk i bilder

Endelig! En AI som kan generere norsk tekst i bilder med 94% nøyaktighet. Jeg testet Nano Banana Pro grundig – her er resultatene.

Google NotebookLM

Google NotebookLM er en AI-assistent som gjør dokumenter om til interaktive samtaler, studieguidere og podcasts på norsk. Nå drevet av Gemini 3 Pro med nye funksjoner som infographics, slide decks og Deep Research. Komplett guide til gratis vs. Plus-versjon.