Innhold Vis
Nvidia planlegger å bruke 26 milliarder dollar — rundt 286 milliarder kroner — på å bygge egne open-weight AI-modeller over de neste fem årene. Det fremgår av SEC-filings som først ble rapportert av Wired. Det er en strategisk kursendring som setter GPU-giganten i direkte konkurranse med OpenAI, Anthropic og DeepSeek — selskaper som til nå har vært blant Nvidias største kunder.
Nvidia er allerede verdens dominerende leverandør av AI-treningshardware. Nå ser det ut til at det ikke er nok. Selskapet vil eie hele stacken: chips, infrastruktur og modellene som kjører på dem. Med et budsjett som overgår det OpenAI anslås å ha brukt på GPT-4 med god margin, kan Nvidia potensielt lansere flere frontier-modeller med penger til overs.
Første batch med egenutviklede open-source AI-modeller forventes lansert innen slutten av 2026 eller tidlig 2027, ifølge rapportene. Midlene skal fases inn over 18–24 måneder og dekker modellutvikling, treningsinfrastruktur, forskningstalent og det som i filingsene beskrives som «ecosystem development» — sannsynligvis partnerskap og potensielle oppkjøp.
Hva er open-weight AI-modeller?
Open-weight betyr at modellvektene — selve «hjernen» i en AI-modell — er offentlig tilgjengelige. Det er ikke det samme som open source i tradisjonell forstand, men det betyr at hvem som helst kan laste ned, kjøre og finjustere modellen uten å betale lisens. Meta’s Llama-serie er det mest kjente eksempelet, og DeepSeek skapte jordskjelv tidlig i 2025 da de slapp modeller som konkurrerte med GPT-4-nivå til en brøkdel av kostnaden.
Nvidia har ikke sittet stille. Selskapet har allerede lansert Nemotron-resonnementsmodeller og åpne modeller for industri-AI. Men 26 milliarder dollar er et kvantesprang — det handler ikke lenger om å eksperimentere. Det handler om å bli en seriøs aktør i selve modellracet.
Hvorfor gjør Nvidia dette nå?
Det korte svaret: fordi de kan, og fordi de må.
Nvidia tjener enorme summer på AI-boom’en. H100- og B200-GPUene selges fortere enn de produseres. Men det er et problem med den posisjonen: du er avhengig av at kundene dine fortsetter å bygge og trene modeller. Og de tre største cloud-kundene — Microsoft, Amazon og Google — investerer alle i konkurrerende AI-selskaper og utvikler egne chips for å redusere avhengigheten av Nvidia-hardware.
Jensen Huang kalte nylig Nvidias 30 milliarder dollar-investering i OpenAI for muligens «den siste» av den typen. Det er et signal om at strategien er i endring. Fremfor å investere i selskaper som kan bli konkurrenter, bygger Nvidia heller egne modeller.
Transformasjonen Nvidia nå varsler er fra «chipmaker» til «full-stack AI laboratory». Det er akkurat den posisjonen Jensen Huang har siktet mot i årevis, og 26 milliarder dollar er prislappen for å ta steget fullt ut.

Hva betyr dette for konkurrentene?
OpenAI, Anthropic og DeepSeek konkurrerer allerede i et intenst marked. Nå kan de få en ny rival med tilnærmet uendelig treningskapasitet — fordi Nvidia eier infrastrukturen modellene trenes på. Det er som om bensinstasjonen bestemmer seg for å lage biler.
For DeepSeek spesielt er dette interessant. Kineserne har vist at frontier-modeller kan trenes langt billigere enn antatt, og open-weight-strategien deres har satt press på alle aktørene. Nvidia svarer tilsynelatende ved å duble ned på det samme sporet — åpne modeller, bred tilgjengelighet, maksimal distribusjon. Open-weight-strategien gjør det vanskeligere for lukkede selskaper som OpenAI å begrunne premium-priser.
Jeg har tidligere skrevet om Nvidia som trakk seg ut av OpenAI og Anthropic — og spurte om forklaringen holdt vann. Nå begynner bildet å bli tydeligere. Det handler ikke bare om å unngå interessekonflikter. Det handler om å bygge en uavhengig posisjon.

Er dette bra for AI-utviklingen?
Fra et markedsperspektiv: ja. Mer konkurranse om å bygge de beste modellene, kombinert med open-weight-distribusjon, betyr bedre og billigere AI for alle. DeepSeek viste dette i praksis da markedet fikk tilgang til GPT-4-klasse modeller uten lukket API-binding.
Nvidia har ressurser til å trene modeller på en skala ingen andre kan matche uten tilsvarende infrastruktur. Det er ikke nødvendigvis rettferdig konkurranse — men det er slik teknologimarkeder fungerer. Den som eier infrastrukturen, setter premissene.
Det er verdt å merke seg at open-weight ikke betyr regulert eller trygt. Det betyr tilgjengelig. Og tilgjengelig er bra. Enhver aktør som ønsker å bruke modellene, kan gjøre det uten å gå gjennom Nvidias portvoktere. Det er en langt sunnere modell enn det lukkede APIet OpenAI og Anthropic opererer med.
For mer bakgrunn om Nvidia-strategien og AI-krigen om dominans: AI-krigen ingen snakker om — hvorfor OpenAI nå går mot Nvidia.
Hva skjer videre?
Nvidia har allerede startet med Nemotron og industri-orienterte åpne modeller. De neste 18–24 månedene vil vise om selskapet klarer å levere frontier-modeller som faktisk konkurrerer med GPT-5 og Claude 4. Det er én ting å ha penger og hardware. Det er noe annet å ha forskningsmiljøet og arkitektur-kompetansen som trengs.
Men 26 milliarder dollar er mye å satse på at det ikke går bra. Og Jensen Huang har ikke akkurat hatt for vane å bomme på sine spådommer om AI.
1 kommentar