Innhold Vis
En billion parametere, MIT-lisens og benchmarks som visstnok slår både GPT-5 og Claude Opus 4.7 på visse oppgaver. Det er påstandene bak Ring-2.6-1T, den nye flaggskipsmodellen fra inclusionAI som nylig dukket opp på Hugging Face.
Trillion-parameter-modeller har lenge vært forbeholdt de store teknologiselskapene med tilsvarende store treningsbudsjetter. Derfor er det verdt å stoppe opp når en slik modell slippes med en av de mest åpne lisensene som finnes. MIT-lisens betyr at du kan bruke den, modifisere den og kjøre den i produksjon uten å betale noe som helst til noen.
La meg gå gjennom hva vi faktisk vet om Ring-2.6-1T, hva tallene sier, og hva slags infrastruktur du trenger for å kjøre noe i denne størrelsesordenen.
Hva er Ring-2.6-1T?
Ring-2.6-1T er en reasoning-modell med 1 billion (1 trillion i engelsk tallsystem) parametere, utviklet av det kinesiske selskapet inclusionAI. Modellen er tilgjengelig på Hugging Face under MIT-lisens, og støtter kontekstlengder på 128K tokens – som kan utvides til 256K via YaRN-teknikken.
Det som skiller Ring-2.6-1T fra mange andre store modeller er at den er designet spesifikt for agentarbeidsflyt og komplekse produksjonsmiljøer – ikke bare for å svare på enkeltspørsmål. Modellen har to reasoning-modi du kan velge mellom avhengig av hva du trenger:
- High: Rask reasoning for multi-turn agentinteraksjoner og oppgavedekomponering
- xHigh: Tyngre reasoning for matematikk, forskning og kompleks logisk analyse
Denne fleksibiliteten er interessant i en tid der mange reasoning-modeller bare gir deg ett nivå og lar deg stå med regningen uansett oppgave.

Hva sier benchmarkene?
Benchmarks skal alltid tas med en neve salt – noe jeg har skrevet om tidligere i guiden til open source AI. Men tallene inclusionAI presenterer er likevel verdt å se på.
På agent-benchmarks klarer Ring-2.6-1T seg sterkt. PinchBench gir modellen 87,60, noe som er høyere enn det de oppgir for GPT-5.4 xHigh og Gemini-3.1-Pro på samme test. ClawEval-scoren på 63,82 og Tau2-Bench (Telekom) på 95,32 peker i samme retning: modellen er bygget for å takle komplekse, flertrinns agentoppgaver.
Reasoning-tallene er også solide. ARC-AGI-V2 på 66,18 er ifølge inclusionAI høyere enn både Gemini-3.1-Pro og Claude Opus 4.7 på xHigh-innstillingen. AIME 26-scoren på 95,83 og GPQA Diamond på 88,27 er ikke noe å kimse av heller.
Det viktige spørsmålet er selvfølgelig om disse benchmarkene er representative for virkelig bruk, og hvem som har kjørt testene. Her er inclusionAI sine egne tall, og uavhengige reproduksjoner tar tid. Mercury 2 viste noe lignende da den kom – imponerende egne benchmarks som ikke alltid holder seg like godt under ekstern testing.
Hva er IcePop og async RL-trening?
Det teknisk interessante med Ring-2.6-1T er ikke bare parametertallet – det er treningsarkitekturen. inclusionAI beskriver noe de kaller IcePop-algoritmen, som er en asynkron reinforcement learning-metode designet spesielt for trillion-parameter-modeller.
Problemet med å trene så store modeller med vanlig RL er synkroniseringsbottlenecks: alle GPU-ene må vente på hverandre mellom policysampling og parameteroppdateringer. IcePop separerer disse to prosessene, slik at sampling og oppdatering kan kjøre parallelt. Resultatet skal være bedre GPU-utnyttelse og stabilisert trening i en størrelsesorden som tidligere var notorisk vanskelig å håndtere.
Dette er ikke en detalj for de fleste brukere, men for de som vil forstå hvorfor en trillion-parameter-modell faktisk kan finnes som et open source-prosjekt i 2026, er det relevant. Treningskostnadene er fremdeles enormt høye, men effektiviseringen gjør det mer realistisk å gjennomføre.

Hva trenger du for å kjøre Ring-2.6-1T?
En billion parametere er ikke noe du kjører på en enkelt GPU. For å gi deg et perspektiv: med BF16-presisjon snakker vi om rundt 2 TB VRAM bare for å laste modellen. Det betyr multi-node deployment med mange H100-er eller H200-er.
inclusionAI anbefaler SGLang for produksjonskjøring, og viser eksempler med 4 noder à 8 GPU-er (32 GPU-er totalt). vLLM er også støttet. For de aller fleste er dette urealistisk å kjøre lokalt – dette er infrastruktur for bedrifter med dedikert GPU-kluster eller sky-deployments på RunPod, Lambda Labs eller lignende.
Standardoppsettet med Transformers-biblioteket fungerer for enkle tester, men da trenger du enten kvantiserte versjoner (GGUF-format), eller tilgang til nok VRAM til å laste full presisjon. Kvantiserte varianter dukker sannsynligvis opp på Hugging Face fra fellesskapet i løpet av kort tid – det er mønsteret vi ser med andre store open source-modeller som GLM-5.
MIT-lisens – hva betyr det i praksis?
MIT-lisensen er den mest permissive åpne lisensen som finnes. Du kan bruke Ring-2.6-1T til hva som helst – kommersielle produkter, intern automatisering, forskningsprosjekter, finetuning – uten å betale lisensavgifter og uten å måtte dele kildekoden tilbake.
Til sammenligning har mange konkurrerende modeller mer restriktive lisenser. Meta bruker sin egen Llama-lisens med bruksbegrensninger over visse terskler. Qwen har community-lisenser. Ring-2.6-1T med MIT er ett steg frigjortere enn de fleste i denne størrelsen.
For bedrifter som ser på open source-alternativer til proprietære APIer er dette relevant. Ingen avhengighet til én leverandør, ingen data som sendes til tredjeparter, full kontroll over infrastrukturen.
Hva er inclusionAI?
inclusionAI er et relativt nytt kinesisk AI-selskap. Ring-serien er deres flaggskipsprodukt, og Ring-2.6-1T er foreløpig toppmodellen. Selskapet har også en demo tilgjengelig via sin Ling-tjeneste, men distribusjonen er primært rettet mot utviklere og bedrifter som vil integrere modellen i egne systemer.
Kinesisk opprinnelse betyr i mange sammenhenger en viss varsomhet fra min side – jeg er generelt skeptisk til avhengigheter til infrastruktur der databehandling og treningsdata er vanskeligere å verifisere. Men med MIT-lisens og lokal kjøring av modellvektene er dette mye mer transparent enn å kalle et lukket API. Du vet hva du kjører.
Er Ring-2.6-1T verdt å følge med på?
Ja, med forbehold. Tallene er imponerende nok til at uavhengige tester vil bli interessante å se. En billion parametere med MIT-lisens er et sjeldent syn, og hvis benchmarkene holder seg under ekstern testing vil dette raskt bli et referansepunkt for hva open source-modeller kan prestere i 2026.
For de fleste er direkte kjøring urealistisk akkurat nå – infrastrukturen som kreves er i enterprise-klassen. Men kvantiserte varianter vil senke terskelen, og tjenester som OpenRouter vil sannsynligvis legge til modellen dersom den viser seg å holde det den lover. Slik ble det med Mistral Small 4 – fra release til tilgjengelig via API tok det bare noen dager.
Det som er sikkert er at grensen for hva open source-modeller kan levere fortsetter å flyttes. Ring-2.6-1T er et nytt datapunkt i den utviklingen – og det er en utvikling jeg følger tett.