MRC (Multipath Reliable Connection) er en ny åpen nettverksprotokoll lansert av OpenAI i mai 2026, utviklet i samarbeid med AMD, Broadcom, Intel, Microsoft og NVIDIA. Protokollen er designet for å løse et av de største flaskehalsene i storskala AI-trening: nettverk mellom hundretusenvis av GPUer.

Allerede brukt i OpenAIs egne GB200-supercomputere – samme infrastruktur som trener ChatGPT og Codex – markerer MRC et skifte i hvordan bransjen tenker på AI-klynger. Det handler ikke lenger bare om å kjøpe mer kraftige chips. Det handler om å få dem til å snakke effektivt med hverandre.

Ifølge MarkTechPost er protokollen nå open source og dokumentert via IETF-standardprosessen, noe som betyr at hele bransjen kan ta den i bruk.

Hva er egentlig problemet MRC løser?

For å forstå hvorfor MRC er interessant, må vi skjønne hva som faktisk bremser AI-trening i dag.

Tenk deg 100 000 GPUer som jobber parallelt på én og samme modell. Hver GPU trenger å konstant kommunisere med mange andre GPUer – sender og mottar vektorer, gradienter, aktiveringer. Volumet av nettverkstrafikk er sinnssykt. Og dagens protokoller er egentlig ikke bygget for det.

Tradisjonelle løsninger sender pakker langs én fast sti gjennom nettverket. Hvis den stien blir overbelastet, er det kork. Hvis en switch svikter, tar det sekunder – noen ganger titalls sekunder – å rute om. I AI-trening betyr sekunder tapte beregninger, tapte iterasjoner, tapte penger.

MRC angriper dette på tre fronter samtidig.

Hvordan fungerer MRC teknisk?

Den første mekanismen er det OpenAI kaller «adaptive packet spraying». I stedet for å sende pakker langs én sti, sprer MRC dem over hundrevis av parallelle stier simultant. Det er omtrent som å ha 200 motorveier i stedet for én, der trafikken fordeles automatisk etter kapasitet.

Den andre mekanismen er feilgjenoppretting på mikrosekund-nivå. MRC bruker noe som heter SRv6-basert kilde-routing. Hvis en switch eller kobling svikter, oppdager protokollen det og ruter om – ikke på sekunder, men på mikrosekunder. Sammenlignet med konvensjonelle systemer der gjenoppretting tar sekunder eller til og med titalls sekunder, er dette en enorm forbedring for oppetid og ytelse.

Den tredje mekanismen handler om arkitektur. MRC deler 800 Gb/s-grensesnitt opp i åtte 100 Gb/s-forbindelser. Dette gjør det mulig å koble 131 000 GPUer med bare to nivåer av Ethernet-svitsjer – mot tre eller fire nivåer i tradisjonelle løsninger.

Hva er de konkrete tallene?

Her er det MRC-spesifikasjonen faktisk lover:

  • 2/3 færre optiske forbindelser sammenlignet med tre-nivå nettverk
  • 3/5 antall svitsjer som kreves – lavere kostnad, færre feilkilder
  • Lengste pakke-sti redusert fra fem-syv svitsjer til bare tre
  • Skalerbarhet til klynger med over 100 000 GPUer
  • De fleste sviktede lenker gjenoppretter innen ett minutt

Tallene er ikke bare imponerende på papiret. OpenAI bruker allerede MRC i produksjon – på alle sine største NVIDIA GB200-supercomputere. Protokollen er ikke et konsept, den er live.

Nettverkstopologi-diagram som viser MRC to-nivå Ethernet-arkitektur med hundrevis av parallelle pakke-stier mellom GPU-er
MRC-protokollens to-nivå Ethernet-arkitektur – 131 000 GPUer koblet gjennom bare to svitsje-nivåer i stedet for tradisjonelle tre til fire.

Hvilken hardware støtter MRC?

Protokollen er bygget for å kjøre på spesifikke plattformer som allerede brukes i storskala AI-klynger:

Nettverkskort (NICs):

  • NVIDIA ConnectX-8
  • AMD Pollara og Vulcano
  • Broadcom Thor Ultra

Svitsjer:

  • NVIDIA Spectrum-4 og Spectrum-5
  • Broadcom Tomahawk 5

Det er et bredt utvalg av hardware-støtte, og det er ikke tilfeldig. Med AMD, Broadcom, Intel og NVIDIA som partnere er MRC designet for å unngå vendor lock-in. Det er åpent, det er standardisert via IETF, og det er ment for hele bransjen – ikke bare OpenAI.

Hva betyr dette for AI-utvikling fremover?

Det er dette aspektet jeg synes er mest interessant å tenke på.

Det er etter hvert allment kjent at vi nærmer oss grenser for hva vi kan oppnå ved å gjøre chips kraftigere og kraftigere. NVIDIA kan ikke bare doble ytelsen på neste GPU-generasjon uten massive kompromisser. Men å koble flere GPUer effektivt sammen? Det er en annen sak.

MRC er et svar på at AI-trening i 2026 er like mye et nettverksproblem som et beregningsproblem. Den eneste måten å trene virkelig store modeller på er å fordele treningen over titusener av GPUer. Og da er kommunikasjonen mellom dem avgjørende.

OpenAI trekker dessuten frem at to-nivå Ethernet-arkitekturen ikke bare er rimeligere å bygge – den er også lettere å vedlikeholde og skalere. Færre svitsjer betyr færre feilkilder. Enklere topologi betyr enklere drift.

Massivt AI-datacenter med GPU-racker og fiberoptiske kabler som illustrerer skalaen til storskala AI-treningsinfrastruktur
Skalaen til moderne AI-infrastruktur: titusenvis av GPU-er koblet med høyhastighets fiberoptikk – nøyaktig den typen klynger MRC er designet for.

Hva betyr det at MRC er open source?

Det er et bevisst og klokt trekk. OpenAI ønsker at MRC skal bli bransjestandard, og da er åpenhet veien å gå. Proprietære protokoller er historisk sett en oppskrift på fragmentering – ulike produsenter lager inkompatible løsninger, og alle lider.

Ved å publisere MRC gjennom IETF-standardiseringsprosessen og gjøre spesifikasjonen tilgjengelig for alle, satser OpenAI på noe annet: et felles fundament som hele AI-bransjen kan bygge på.

Det er et interessant trekk fra et selskap som ellers er kjent for å holde kortene tett til brystet. MRC er ikke en produktfordel de sitter på – det er infrastruktur de ønsker at alle skal bruke, fordi et sterkere AI-nettverk gagner dem selv også.

Nscale og Microsoft er allerede i gang med massive GPU-klynger i blant annet Narvik – det er nettopp i slike installasjoner MRC vil gjøre størst forskjell. Og med tanke på NVIDIAs dominerende posisjon i AI-markedet, er det bemerkelsesverdig at en protokoll som dette er designet for å fungere på tvers av NVIDIA, AMD og Broadcom-hardware.

Hva tenker du – er open source nettverksprotokoller veien å gå for AI-infrastruktur? Fortell meg gjerne i kommentarfeltet.

Legg igjen en kommentar

Din e-postadresse vil ikke bli publisert. Obligatoriske felt er merket med *

Meld deg på nyhetsbrevet

Få oppdateringer om AI nyhetene rett i inboxen!

Du liker kanskje denne også
Jan Sverre med headphones og lydmikser i boardroom-møte med forvirrede executives

Suno AI Copyright 2026 – Opphavsrett og Rettigheter for AI-Musikk

Kan du tjene penger på Suno-musikk? Her er en praktisk gjennomgang av rettigheter, risiko og hva du bør avklare før publisering.
Jan Sverre riding a dinosaur in safari outfit, photorealistic AI-generated image demonstrating Nano Banana Pro capabilities

Jeg testet Nano Banana Pro: AI som faktisk skriver norsk i bilder

Endelig! En AI som kan generere norsk tekst i bilder med 94% nøyaktighet. Jeg testet Nano Banana Pro grundig – her er resultatene.
Jan Sverre tester GPT-5.2 ved en transparent OpenAI GPT-skjerm

GPT-5.2: Jeg testet OpenAIs nyeste modell – her er hva som faktisk fungerer

GPT-5.2 er ute med tre versjoner. Jeg har testet thinking-modellen, sammenlignet med 5.1, og funnet ut hva som faktisk er bedre. Her er mine erfaringer.
Jan Sverre profesjonelt fotograf-kvalitet portrett AI-generert bildegenerering

Google NotebookLM

Google NotebookLM er en AI-assistent som gjør dokumenter om til interaktive samtaler, studieguidere og podcasts på norsk. Nå drevet av Gemini 3 Pro med nye funksjoner som infographics, slide decks og Deep Research. Komplett guide til gratis vs. Plus-versjon.