Nvidia planlegger å bruke 26 milliarder dollar — rundt 286 milliarder kroner — på å bygge egne open-weight AI-modeller over de neste fem årene. Det fremgår av SEC-filings som først ble rapportert av Wired. Det er en strategisk kursendring som setter GPU-giganten i direkte konkurranse med OpenAI, Anthropic og DeepSeek — selskaper som til nå har vært blant Nvidias største kunder.

Nvidia er allerede verdens dominerende leverandør av AI-treningshardware. Nå ser det ut til at det ikke er nok. Selskapet vil eie hele stacken: chips, infrastruktur og modellene som kjører på dem. Med et budsjett som overgår det OpenAI anslås å ha brukt på GPT-4 med god margin, kan Nvidia potensielt lansere flere frontier-modeller med penger til overs.

Første batch med egenutviklede open-source AI-modeller forventes lansert innen slutten av 2026 eller tidlig 2027, ifølge rapportene. Midlene skal fases inn over 18–24 måneder og dekker modellutvikling, treningsinfrastruktur, forskningstalent og det som i filingsene beskrives som «ecosystem development» — sannsynligvis partnerskap og potensielle oppkjøp.

Hva er open-weight AI-modeller?

Open-weight betyr at modellvektene — selve «hjernen» i en AI-modell — er offentlig tilgjengelige. Det er ikke det samme som open source i tradisjonell forstand, men det betyr at hvem som helst kan laste ned, kjøre og finjustere modellen uten å betale lisens. Meta’s Llama-serie er det mest kjente eksempelet, og DeepSeek skapte jordskjelv tidlig i 2025 da de slapp modeller som konkurrerte med GPT-4-nivå til en brøkdel av kostnaden.

Nvidia har ikke sittet stille. Selskapet har allerede lansert Nemotron-resonnementsmodeller og åpne modeller for industri-AI. Men 26 milliarder dollar er et kvantesprang — det handler ikke lenger om å eksperimentere. Det handler om å bli en seriøs aktør i selve modellracet.

Hvorfor gjør Nvidia dette nå?

Det korte svaret: fordi de kan, og fordi de må.

Nvidia tjener enorme summer på AI-boom’en. H100- og B200-GPUene selges fortere enn de produseres. Men det er et problem med den posisjonen: du er avhengig av at kundene dine fortsetter å bygge og trene modeller. Og de tre største cloud-kundene — Microsoft, Amazon og Google — investerer alle i konkurrerende AI-selskaper og utvikler egne chips for å redusere avhengigheten av Nvidia-hardware.

Jensen Huang kalte nylig Nvidias 30 milliarder dollar-investering i OpenAI for muligens «den siste» av den typen. Det er et signal om at strategien er i endring. Fremfor å investere i selskaper som kan bli konkurrenter, bygger Nvidia heller egne modeller.

Transformasjonen Nvidia nå varsler er fra «chipmaker» til «full-stack AI laboratory». Det er akkurat den posisjonen Jensen Huang har siktet mot i årevis, og 26 milliarder dollar er prislappen for å ta steget fullt ut.

Illustrasjon av AI-modell-konkurransen mellom Nvidia, OpenAI, Anthropic og DeepSeek i 2026
Nvidia entrer en arena som til nå har vært dominert av OpenAI, Anthropic og DeepSeek — med 26 milliarder dollar i ryggen.

Hva betyr dette for konkurrentene?

OpenAI, Anthropic og DeepSeek konkurrerer allerede i et intenst marked. Nå kan de få en ny rival med tilnærmet uendelig treningskapasitet — fordi Nvidia eier infrastrukturen modellene trenes på. Det er som om bensinstasjonen bestemmer seg for å lage biler.

For DeepSeek spesielt er dette interessant. Kineserne har vist at frontier-modeller kan trenes langt billigere enn antatt, og open-weight-strategien deres har satt press på alle aktørene. Nvidia svarer tilsynelatende ved å duble ned på det samme sporet — åpne modeller, bred tilgjengelighet, maksimal distribusjon. Open-weight-strategien gjør det vanskeligere for lukkede selskaper som OpenAI å begrunne premium-priser.

Jeg har tidligere skrevet om Nvidia som trakk seg ut av OpenAI og Anthropic — og spurte om forklaringen holdt vann. Nå begynner bildet å bli tydeligere. Det handler ikke bare om å unngå interessekonflikter. Det handler om å bygge en uavhengig posisjon.

Visuell metafor av Nvidia som transformerer seg fra GPU-produsent til full-stack AI-selskap med egne modeller
Fra GPU-leverandør til full-stack AI-laboratorium — Nvidia bygger nå hele stacken selv, fra chips til modeller.

Er dette bra for AI-utviklingen?

Fra et markedsperspektiv: ja. Mer konkurranse om å bygge de beste modellene, kombinert med open-weight-distribusjon, betyr bedre og billigere AI for alle. DeepSeek viste dette i praksis da markedet fikk tilgang til GPT-4-klasse modeller uten lukket API-binding.

Nvidia har ressurser til å trene modeller på en skala ingen andre kan matche uten tilsvarende infrastruktur. Det er ikke nødvendigvis rettferdig konkurranse — men det er slik teknologimarkeder fungerer. Den som eier infrastrukturen, setter premissene.

Det er verdt å merke seg at open-weight ikke betyr regulert eller trygt. Det betyr tilgjengelig. Og tilgjengelig er bra. Enhver aktør som ønsker å bruke modellene, kan gjøre det uten å gå gjennom Nvidias portvoktere. Det er en langt sunnere modell enn det lukkede APIet OpenAI og Anthropic opererer med.

For mer bakgrunn om Nvidia-strategien og AI-krigen om dominans: AI-krigen ingen snakker om — hvorfor OpenAI nå går mot Nvidia.

Hva skjer videre?

Nvidia har allerede startet med Nemotron og industri-orienterte åpne modeller. De neste 18–24 månedene vil vise om selskapet klarer å levere frontier-modeller som faktisk konkurrerer med GPT-5 og Claude 4. Det er én ting å ha penger og hardware. Det er noe annet å ha forskningsmiljøet og arkitektur-kompetansen som trengs.

Men 26 milliarder dollar er mye å satse på at det ikke går bra. Og Jensen Huang har ikke akkurat hatt for vane å bomme på sine spådommer om AI.

Les: Nvidia og AI – komplett guide (2026).

1 kommentar
Legg igjen en kommentar

Din e-postadresse vil ikke bli publisert. Obligatoriske felt er merket med *

Meld deg på nyhetsbrevet

Få oppdateringer om AI nyhetene rett i inboxen!

Du liker kanskje denne også
Jan Sverre med headphones og lydmikser i boardroom-møte med forvirrede executives

Suno AI Copyright 2026 – Opphavsrett og Rettigheter for AI-Musikk

Kan du tjene penger på Suno-musikk? Her er en praktisk gjennomgang av rettigheter, risiko og hva du bør avklare før publisering.
Jan Sverre riding a dinosaur in safari outfit, photorealistic AI-generated image demonstrating Nano Banana Pro capabilities

Jeg testet Nano Banana Pro: AI som faktisk skriver norsk i bilder

Endelig! En AI som kan generere norsk tekst i bilder med 94% nøyaktighet. Jeg testet Nano Banana Pro grundig – her er resultatene.
Jan Sverre tester GPT-5.2 ved en transparent OpenAI GPT-skjerm

GPT-5.2: Jeg testet OpenAIs nyeste modell – her er hva som faktisk fungerer

GPT-5.2 er ute med tre versjoner. Jeg har testet thinking-modellen, sammenlignet med 5.1, og funnet ut hva som faktisk er bedre. Her er mine erfaringer.
Jan Sverre profesjonelt fotograf-kvalitet portrett AI-generert bildegenerering

Google NotebookLM

Google NotebookLM er en AI-assistent som gjør dokumenter om til interaktive samtaler, studieguidere og podcasts på norsk. Nå drevet av Gemini 3 Pro med nye funksjoner som infographics, slide decks og Deep Research. Komplett guide til gratis vs. Plus-versjon.