Innhold Vis
MRC (Multipath Reliable Connection) er en ny åpen nettverksprotokoll lansert av OpenAI i mai 2026, utviklet i samarbeid med AMD, Broadcom, Intel, Microsoft og NVIDIA. Protokollen er designet for å løse et av de største flaskehalsene i storskala AI-trening: nettverk mellom hundretusenvis av GPUer.
Allerede brukt i OpenAIs egne GB200-supercomputere – samme infrastruktur som trener ChatGPT og Codex – markerer MRC et skifte i hvordan bransjen tenker på AI-klynger. Det handler ikke lenger bare om å kjøpe mer kraftige chips. Det handler om å få dem til å snakke effektivt med hverandre.
Ifølge MarkTechPost er protokollen nå open source og dokumentert via IETF-standardprosessen, noe som betyr at hele bransjen kan ta den i bruk.
Hva er egentlig problemet MRC løser?
For å forstå hvorfor MRC er interessant, må vi skjønne hva som faktisk bremser AI-trening i dag.
Tenk deg 100 000 GPUer som jobber parallelt på én og samme modell. Hver GPU trenger å konstant kommunisere med mange andre GPUer – sender og mottar vektorer, gradienter, aktiveringer. Volumet av nettverkstrafikk er sinnssykt. Og dagens protokoller er egentlig ikke bygget for det.
Tradisjonelle løsninger sender pakker langs én fast sti gjennom nettverket. Hvis den stien blir overbelastet, er det kork. Hvis en switch svikter, tar det sekunder – noen ganger titalls sekunder – å rute om. I AI-trening betyr sekunder tapte beregninger, tapte iterasjoner, tapte penger.
MRC angriper dette på tre fronter samtidig.
Hvordan fungerer MRC teknisk?
Den første mekanismen er det OpenAI kaller «adaptive packet spraying». I stedet for å sende pakker langs én sti, sprer MRC dem over hundrevis av parallelle stier simultant. Det er omtrent som å ha 200 motorveier i stedet for én, der trafikken fordeles automatisk etter kapasitet.
Den andre mekanismen er feilgjenoppretting på mikrosekund-nivå. MRC bruker noe som heter SRv6-basert kilde-routing. Hvis en switch eller kobling svikter, oppdager protokollen det og ruter om – ikke på sekunder, men på mikrosekunder. Sammenlignet med konvensjonelle systemer der gjenoppretting tar sekunder eller til og med titalls sekunder, er dette en enorm forbedring for oppetid og ytelse.
Den tredje mekanismen handler om arkitektur. MRC deler 800 Gb/s-grensesnitt opp i åtte 100 Gb/s-forbindelser. Dette gjør det mulig å koble 131 000 GPUer med bare to nivåer av Ethernet-svitsjer – mot tre eller fire nivåer i tradisjonelle løsninger.
Hva er de konkrete tallene?
Her er det MRC-spesifikasjonen faktisk lover:
- 2/3 færre optiske forbindelser sammenlignet med tre-nivå nettverk
- 3/5 antall svitsjer som kreves – lavere kostnad, færre feilkilder
- Lengste pakke-sti redusert fra fem-syv svitsjer til bare tre
- Skalerbarhet til klynger med over 100 000 GPUer
- De fleste sviktede lenker gjenoppretter innen ett minutt
Tallene er ikke bare imponerende på papiret. OpenAI bruker allerede MRC i produksjon – på alle sine største NVIDIA GB200-supercomputere. Protokollen er ikke et konsept, den er live.

Hvilken hardware støtter MRC?
Protokollen er bygget for å kjøre på spesifikke plattformer som allerede brukes i storskala AI-klynger:
Nettverkskort (NICs):
- NVIDIA ConnectX-8
- AMD Pollara og Vulcano
- Broadcom Thor Ultra
Svitsjer:
- NVIDIA Spectrum-4 og Spectrum-5
- Broadcom Tomahawk 5
Det er et bredt utvalg av hardware-støtte, og det er ikke tilfeldig. Med AMD, Broadcom, Intel og NVIDIA som partnere er MRC designet for å unngå vendor lock-in. Det er åpent, det er standardisert via IETF, og det er ment for hele bransjen – ikke bare OpenAI.
Hva betyr dette for AI-utvikling fremover?
Det er dette aspektet jeg synes er mest interessant å tenke på.
Det er etter hvert allment kjent at vi nærmer oss grenser for hva vi kan oppnå ved å gjøre chips kraftigere og kraftigere. NVIDIA kan ikke bare doble ytelsen på neste GPU-generasjon uten massive kompromisser. Men å koble flere GPUer effektivt sammen? Det er en annen sak.
MRC er et svar på at AI-trening i 2026 er like mye et nettverksproblem som et beregningsproblem. Den eneste måten å trene virkelig store modeller på er å fordele treningen over titusener av GPUer. Og da er kommunikasjonen mellom dem avgjørende.
OpenAI trekker dessuten frem at to-nivå Ethernet-arkitekturen ikke bare er rimeligere å bygge – den er også lettere å vedlikeholde og skalere. Færre svitsjer betyr færre feilkilder. Enklere topologi betyr enklere drift.

Hva betyr det at MRC er open source?
Det er et bevisst og klokt trekk. OpenAI ønsker at MRC skal bli bransjestandard, og da er åpenhet veien å gå. Proprietære protokoller er historisk sett en oppskrift på fragmentering – ulike produsenter lager inkompatible løsninger, og alle lider.
Ved å publisere MRC gjennom IETF-standardiseringsprosessen og gjøre spesifikasjonen tilgjengelig for alle, satser OpenAI på noe annet: et felles fundament som hele AI-bransjen kan bygge på.
Det er et interessant trekk fra et selskap som ellers er kjent for å holde kortene tett til brystet. MRC er ikke en produktfordel de sitter på – det er infrastruktur de ønsker at alle skal bruke, fordi et sterkere AI-nettverk gagner dem selv også.
Nscale og Microsoft er allerede i gang med massive GPU-klynger i blant annet Narvik – det er nettopp i slike installasjoner MRC vil gjøre størst forskjell. Og med tanke på NVIDIAs dominerende posisjon i AI-markedet, er det bemerkelsesverdig at en protokoll som dette er designet for å fungere på tvers av NVIDIA, AMD og Broadcom-hardware.
Hva tenker du – er open source nettverksprotokoller veien å gå for AI-infrastruktur? Fortell meg gjerne i kommentarfeltet.