Xiaomi er mest kjent for telefoner og elektriske sparkesykler. Så det var litt av en overraskelse da selskapet 18. mars 2026 slapp MiMo-V2-Pro – en AI-modell med over 1 billion parametere som ranker som nr. 3 globalt på agent-benchmarks, rett bak Claude Opus 4.6. Og til en åttendedel av prisen.

Det er ikke en tilfeldig satsing. Ledeforskeren bak MiMo-V2 kommer fra DeepSeek. I en uke kjørte modellen anonymt på OpenRouter under kodenavnet "Hunter Alpha" – ingen visste hvem som sto bak. Utviklere testet den, roste den, og antok den var noe helt annet. Totalt ble det prosessert over 1 billion tokens før Xiaomi avslørte at det var dem.

Resultatet av den uformelle avsløringen? Xiaomi er nå en aktør i det globale AI-kappløpet. Her er hva modellene faktisk kan, hva de koster, og hvorfor dette er et varsel om at priskrigen på AI-inferens bare har begynt.

Hva er Xiaomi MiMo-V2-Pro?

MiMo-V2-Pro er Xiaomis flaggskip-modell, bygd for agentiske arbeidsoppgaver. Den har over 1 billion totale parametere, men bruker bare 42 milliarder aktive parametere per pass – en Mixture-of-Experts-arkitektur som lar den skalere uten å svi av all regnekraft til enhver tid.

Kontekstvinduet er 1 million tokens. Det er det samme som Holotron-12B fra H Company og NVIDIA fikk mye skryt for – men her snakker vi om en modell som direkte konkurrerer med toppmodellene, ikke mellomsjiktet.

Hva betyr "designet for agentiske oppgaver" i praksis? Modellen er trent for å orkestrere komplekse arbeidsflyter, drive produksjonsteknikk og håndtere sekvensielle beslutninger over lange kjøringer. Det er det som skiller agent-AI fra vanlig chat-AI: modellen trenger ikke bare å svare riktig én gang, den må ta konsistente valg gjennom mange steg.

Benchmarks – Hvor god er den egentlig?

På ClawEval, en benchmark for agentiske oppgaver, scorer MiMo-V2-Pro 61,5. Claude Opus 4.6 ligger på 66,3. GPT-5.2 henger etter med 50,0. Det er med andre ord nr. 3 globalt – og gapet opp til Opus 4.6 er mye mindre enn gapet ned til GPT-5.2.

På SWE-bench Verified – den mest anerkjente testen for kode-AI – slår MiMo-V2-Pro faktisk Claude Sonnet 4.6. Søstermodellen MiMo-V2-Flash gjør det enda mer imponerende: den rangerer som #1 åpen kildekode-modell globalt på SWE-bench, og leverer ytelse sammenlignbar med Claude Sonnet 4.5 til en brøkdel av prisen.

For å sette det i perspektiv med rene kostnader: Artificial Analysis kjørte sin Intelligence Index-benchmark og betalte 348 dollar for MiMo-V2-Pro. Den tilsvarende kjøringen med Claude Opus 4.6 kostet 2 486 dollar. Samme oppgave, 7 ganger lavere pris.

Infografikk som sammenligner ClawEval-scores og pris per million tokens for MiMo-V2-Pro, Claude Opus 4.6 og GPT-5.2
ClawEval-scores: MiMo-V2-Pro 61,5 vs Claude Opus 4.6 66,3 vs GPT-5.2 50,0. Pris per million output-tokens: $3 vs $25 vs $15.

Hva koster MiMo-V2-Pro sammenlignet med Claude?

Her er tallene direkte:

  • MiMo-V2-Pro: $1 per million input-tokens, $3 per million output-tokens (opp til 256K kontekst)
  • Claude Opus 4.6: $5 per million input-tokens, $25 per million output-tokens

Det vil si 5 ganger dyrere inn, og over 8 ganger dyrere ut. For lange agent-kjøringer der output er det store volumet, er forskjellen enda mer dramatisk i praksis.

MiMo-V2-Flash er søstermodellen – 309 milliarder parametere, åpen kildekode, og tilgjengelig på OpenRouter til kun $0,10 per million tokens. Det er ekstremt billig for en modell som topper SWE-bench blant åpne modeller. For kontekst: de fleste andre open source-modeller i den klassen koster 5-10 ganger mer per million tokens.

Hunter Alpha – historien bak det mystiske kodenavnet

Det er denne historien som gjør lanseringen interessant utover de tørre tallene.

En uke før den offisielle lanseringen dukket det opp en ny modell på OpenRouter kalt "Hunter Alpha". Ingen attribusjon, ingen selskapsinfo. Bare en modell.

Utviklere begynte å teste den. Tilbakemeldingene strømmet inn – rask, nøyaktig på kode, god på sekvensielle oppgaver. Noen lurte på om det var DeepSeek V4 under testing. Andre spekulerte på om det var en OpenAI-lekk. Den toppet daglige bruksrangeringer og samlet over 1 billion tokens i produksjonskjøringer, alt mens Xiaomi satt stille.

Så kom 18. mars: Xiaomi avslørte at Hunter Alpha var MiMo-V2-Pro, og at ledeforskeren bak prosjektet kom fra DeepSeek. Akkurat den bakgrunnen forklarer mye – DeepSeek-teamet har vist at de vet hvordan man trener effektive modeller uten å kaste bort regnekraft, og den filosofien ser ut til å ha fulgt med over.

Digital illustrasjon av Hunter Alpha - det anonyme kodenavnet Xiaomi brukte på OpenRouter i en uke før MiMo-V2-Pro ble avslørt
Hunter Alpha toppet daglige bruksrangeringer på OpenRouter og prosesserte over 1 billion tokens – uten at noen visste at det var Xiaomi bak.

Er det en skeptisk tanke å ha om kinesiske AI-modeller?

Jeg er åpen om at jeg har en viss skepsis til kinesiske modeller generelt – ikke fiendtlighet, men bevissthet om at data kan gå andre steder enn man forventer. Det er de samme spørsmålene jeg stilte da Qwen 3.5 kom og da DeepSeek eksploderte på rankingene.

MiMo-V2-Flash er åpen kildekode – du kan laste ned vektene og kjøre den lokalt. Det fjerner databekymringen helt, og da handler det bare om ytelse og kostnader. Der ser tallene faktisk gode ut.

MiMo-V2-Pro er derimot API-only for nå. Og det betyr at data prosesseres på Xiaomis infrastruktur. For eksperimenter og testing er det én ting. For sensitive arbeidsoppgaver i produksjon er det et spørsmål man bør stille seg – akkurat som med GLM 4.7, akkurat som med alle andre kinesiske modeller.

MiMo-V2-Flash – den åpne kildekode-broren

Søstermodellen fortjener sin egen omtale. MiMo-V2-Flash er 309 milliarder parametere totalt, med 15 milliarder aktive per pass. Den er fullt åpen kildekode tilgjengelig på GitHub, og bruker en hybrid attention-arkitektur optimert for effektiv inferens.

På SWE-bench Multilingual – som tester kodeforståelse på tvers av programmeringsspråk – er den beste åpne modellen som finnes akkurat nå. Den leverer ytelse sammenlignbar med Claude Sonnet 4.5, til omtrent 3,5% av prisen. Ja, du leste riktig.

For de som vil eksperimentere uten kostnadsproblematikk og uten API-avhengighet til et kinesisk selskap, er Flash det naturlige startpunktet. Du kan kjøre den lokalt med nok VRAM – med 15 milliarder aktive parametere er kravene faktisk håndterlige for en moderne arbeidsstasjon.

Hva betyr dette for AI-markedet fremover?

Det som skjer er ikke at Xiaomi plutselig er blitt et AI-laboratorium. Det som skjer er at toppytelsen – det som for seks måneder siden bare fantes hos OpenAI og Anthropic – nå spres til stadig flere aktører. Og priskrigen som følger av det er langt fra ferdig.

Vi har sett dette mønsteret med DeepSeek R1, med Qwen, med GLM. Hver gang kommer en ny kinesisk modell og setter under seg halvparten av benchmark-listen til en brøkdel av prisen på vestlige alternativer. Noen av dem er åpne. Noen er ikke det.

For deg som bruker AI-modeller i arbeidet ditt: dette betyr at du allerede nå kan kjøre agent-oppgaver i klasse med topp-3 globalt til under $1 per million input-tokens. For seks måneder siden krevde det $15-$25. Det er en strukturell endring, ikke bare en ny modell i rekken.

Hva tenker du? Er dette en modell du vil teste, eller er skepsisen til kinesisk infrastruktur et dealbreaker? Send gjerne en kommentar under.

Legg igjen en kommentar

Din e-postadresse vil ikke bli publisert. Obligatoriske felt er merket med *

Meld deg på nyhetsbrevet

Få oppdateringer om AI nyhetene rett i inboxen!

Du liker kanskje denne også
Jan Sverre med headphones og lydmikser i boardroom-møte med forvirrede executives

Suno AI Copyright 2026 – Opphavsrett og Rettigheter for AI-Musikk

Kan du tjene penger på Suno-musikk? Her er en praktisk gjennomgang av rettigheter, risiko og hva du bør avklare før publisering.
Jan Sverre tester GPT-5.2 ved en transparent OpenAI GPT-skjerm

GPT-5.2: Jeg testet OpenAIs nyeste modell – her er hva som faktisk fungerer

GPT-5.2 er ute med tre versjoner. Jeg har testet thinking-modellen, sammenlignet med 5.1, og funnet ut hva som faktisk er bedre. Her er mine erfaringer.
Jan Sverre profesjonelt fotograf-kvalitet portrett AI-generert bildegenerering

Google NotebookLM

Google NotebookLM er en AI-assistent som gjør dokumenter om til interaktive samtaler, studieguidere og podcasts på norsk. Nå drevet av Gemini 3 Pro med nye funksjoner som infographics, slide decks og Deep Research. Komplett guide til gratis vs. Plus-versjon.
Jan Sverre Bauge sitter foran dataskjermer med AI-agent dashboards og meldingsapper i full aktivitet

Hva Er ClawdBot? Open-Source AI-Agent med Sikkerhetsproblemer

Clawdbot er open-source AI-agenten alle snakker om. Slik kommer du i gang – og slik sikrer du deg mot alvorlige sårbarheter.