Innhold Vis
Nvidia er selskapet som på mange måter eier AI-revolusjonen. Ikke fordi de er størst eller eldst, men fordi de hadde riktig teknologi på riktig tidspunkt – og bygget videre så raskt at konkurrentene fremdeles løper etter. I 2026 kontrollerer Nvidia rundt 90 prosent av markedet for AI-treningshardware. Det er et monopol som knapt har sidestykke i tech-historien.
Men hva er det egentlig Nvidia gjør? Og hvorfor er det akkurat de – og ikke AMD, Intel, Google eller noen andre – som sitter på tronen? Dette er den komplette guiden til Nvidia i AI-alderen: hardware, software, egne AI-modeller, konkurrentene de slåss mot, og hva alt dette betyr for deg.
Jeg har skrevet 18 separate artikler om Nvidia det siste året. Det er på tide å samle trådene.
Hvorfor dominerer Nvidia AI?
Historien starter ikke med AI. Den starter med gaming. Nvidia ble grunnlagt i 1993 av Jensen Huang, Chris Malachowsky og Curtis Priem – tre ingeniører som ville lage bedre grafikk til PC-spill. De lyktes. GeForce-kortene ble standard for PC-gamere, og Nvidia ble en solid, lønnsom nisjeaktør.
Det som forandret alt var CUDA – Compute Unified Device Architecture – lansert i 2006. Nvidia skjønte at GPU-ene sine ikke bare kunne brukes til å rendre piksler. De kunne brukes til all slags parallell beregning. En moderne GPU har tusenvis av kjerner som kan jobbe samtidig – perfekt for matriseoperasjonene som er fundamentet i maskinlæring.
Da dyp læring tok av rundt 2012, var Nvidia allerede der. Forskere ved universitetene hadde allerede eksperimentert med å bruke GeForce-kort til nevrale nettverk. Nvidia hadde CUDA-plattformen, de hadde bibliotekene, de hadde dokumentasjonen. Konkurrentene hadde ingenting tilsvarende.
Det er den enkle forklaringen på dominansen: et 18-år gammelt forsprang i programvare. AMD har flotte GPU-er. De kan konkurrere på råytelse. Men de har ikke CUDA – og hele AI-verdenen er bygget på CUDA.
CUDA og programvareøkosystemet – den egentlige moaten
CUDA er ikke bare ett verktøy. Det er et helt økosystem som har vokst i 18 år. TensorFlow, PyTorch, JAX – alle de dominerende rammeverket for maskinlæring er optimalisert for CUDA. Bedrifter har ansatt ingeniører som kan CUDA. Universiteter underviser i CUDA. Kode er skrevet for CUDA.
Å bytte til AMD ROCm (Nvidias konkurrent fra AMD) er teknisk mulig, men i praksis en enorm jobb. Du må portere kode, omskole team, finne ut av feil som ikke finnes i dokumentasjonen fordi ingen har støtt på dem ennå. De fleste velger å ikke bry seg – og kjøper Nvidia.
Dette er det Jensen Huang kaller «the accelerated computing platform» – og det er mye mer enn chips. Nvidia selger faktisk en stack: hardware, drivere, CUDA-biblioteker, cuDNN (for dyp læring), cuBLAS (for lineær algebra), TensorRT (for inferens-optimalisering), og nå også rammeverk som NeMo og Triton Inference Server. En kjøper du inn i Nvidia, kjøper du inn i hele stabelen.
H100, B200 og Blackwell – hva betyr GPU-navnene?
Nvidia har to produktlinjer som betyr noe i AI-sammenheng akkurat nå: Hopper-generasjonen (H100, H200) og Blackwell-generasjonen (B100, B200, GB200 NVL).
H100 er arbeidshesten som trent de fleste store modeller du bruker i dag. GPT-4, Llama, Claude – alle trent på klynger av H100-er. En enkelt H100 koster mellom 300 000 og 400 000 kroner. Microsoft og Meta kjøper dem i titusener.
B200 (Blackwell) er neste generasjon, lansert i 2025. Ytelsesgevinsten er dramatisk: opp til 5x raskere inferens sammenlignet med H100 for visse arbeidsbelastninger, og vesentlig bedre effektivitet per watt. NVFP4-presisjon (en ny lavere-presisjon numerisk format) gir ytterligere gjennomstrømmingsgevinster for modeller som er optimalisert for det.
GB200 NVL72 er den absurde ytterkanten – et rack som kombinerer 36 Grace CPU-er og 72 B200 GPU-er i ett massivt system. NVLink-interconnect binder dem sammen med enorm båndbredde. Et slikt rack koster anslagsvis 30-40 millioner kroner. Noen bestiller hundrevis av dem.
Arkitekturen bak heter altså Blackwell – oppkalt etter statistikeren David Harold Blackwell. Forrige generasjon het Hopper (Grace Murray Hopper, datapioner). Nvidia oppkaller GPU-generasjonene sine etter store vitenskapspersoner. Neste heter Rubin.

Hva er AI-Q – Nvidias egen forskningsagent?
Nvidia er ikke lenger bare et hardware-selskap. De bygger egne AI-modeller, og AI-Q er et av de mest interessante eksemplene. Det er en open-source AI-agent designet for forskning og kunnskapsinnhenting – og den topper DeepResearch Bench, den anerkjente evalueringen for slike systemer.
AI-Q er bygget for å kombinere multistep-resonnering med verktøykall: den kan søke, lese dokumenter, sammenstille informasjon og svare på komplekse spørsmål. Tenk på det som Nvidias svar på Perplexity og Google Deep Research – men open source og bygget for å kjøre på Nvidia-hardware.
Strategien er tydelig: ved å gi ut kraftige open-source agenter som er optimalisert for Nvidia-infrastruktur, sikrer de at bedrifter og forskningsmiljøer som vil bruke state-of-the-art AI velger Nvidia-chips for å kjøre dem. Programvaren driver salget av hardware.
NemoClaw og Holotron-12B – Nvidias AI-agent-satsing
To av de mest spennende Nvidia-prosjektene handler om AI-agenter – systemer som ikke bare svarer på spørsmål, men faktisk gjør ting på datamaskiner og nettsider.
NemoClaw er Nvidias infrastrukturlag for OpenClaw, Anthropics kodingsassistent. NemoClaw legger til et sikkerhetslag (OpenShell) og Nemotron-modellene – Nano (4B parametere), Super (120B MoE) og Ultra – som er optimalisert for Blackwell-plattformen. Med NVFP4-presisjon gir de 5x gjennomstrømmingseffektivitet sammenlignet med eldre tilnærminger.
Holotron-12B er et samarbeid mellom H Company og Nvidia – en modell for «computer use», altså AI som kan styre en datamaskin visuelt: klikke, skrive, navigere nettlesere. Den oppnår 8 900 tokens per sekund på H100, som er 70 prosent raskere enn forgjengeren. Den bruker en hybrid SSM-Attention-arkitektur som gjør at minnebruken ikke vokser proporsjonalt med kontekstlengden – et gjennombrudd for lange sesjoner.
Begge disse peker mot det Huang kaller «agentic AI» – AI som ikke bare responderer, men som handler autonomt over tid. Nvidia posisjonerer seg som infrastrukturleverandør for nettopp dette skiftet.
DLSS 5 – AI i gaming
Ikke all Nvidia-AI er for datasentre. DLSS 5 (Deep Learning Super Sampling) er Nvidias AI-baserte oppskaleringsalgoritme for spill – og den gjør noe ganske fascinerende: den bruker nevrale nettverk til å rekonstruere høyoppløsningsbilder fra lavere oppløsning, og genererer i prinsippet piksler som aldri ble beregnet.
Resultatet er at et spill kan rendre i 1080p og se ut som 4K, men kjøre vesentlig raskere fordi GPU-en gjør mindre rå rasterisering og mer AI-inferens. Med RTX 50-serien og DLSS 5 er det mulig å spille krevende titler på høy kvalitet på relativt beskjeden hardware.
For Nvidia er dette også strategisk: det binder gamere fast til RTX-kortene. DLSS fungerer kun på Nvidia. AMDs FSR og Intels XeSS er alternativer, men DLSS er fortsatt ledende på bildekvalitet.
26 milliarder dollar i egne AI-modeller
I mars 2026 kom nyheten som egentlig sier alt om hvilken retning Nvidia beveger seg: de investerer 26 milliarder dollar – 286 milliarder kroner – i egne open-weight AI-modeller over de neste fem årene.
Det er mer enn OpenAI brukte på å trene GPT-4. Det er et signal om at Nvidia ikke er fornøyd med å selge spader til gullgraverne – de vil grave selv.
Første runde modeller er ventet mot slutten av 2026 og tidlig 2027. De vil sannsynligvis bygge på Nemotron-familien, men med vesentlig større skala. Nvidia understreker at dette er «open-weight» (vektene er offentlige) snarere enn «open source» (all kode og treningsdata er åpen) – en distinksjon som betyr noe for kommersiell bruk og tilpasning.
Strategien er den samme som med AI-Q og NemoClaw: kraftige modeller som er optimalisert for å kjøre på Nvidia-hardware, og som dermed driver etterspørsel etter nettopp den hardware-en.

Hva skjer med Groq-investeringen?
Nvidia inngikk en 20 milliarder dollar «lisensavtale» med Groq – og jeg setter anførselstegn rundt lisensavtale fordi det er verdt å tenke på hva dette egentlig er.
Groq lager LPU-er (Language Processing Units) – spesialiserte brikker for inferens som er 10 ganger raskere og bruker 10 ganger mindre strøm enn Nvidia GPU-er til samme oppgave. De er ikke gode til trening, men til å kjøre ferdige modeller er de overlegen. Groqs grunnlegger, Jonathan Ross, bygde Googles første TPU.
Ved å strukturere dette som en «ikke-eksklusiv lisensavtale» i stedet for et oppkjøp unngår Nvidia antitrust-problemer. Nvidia har allerede feilet på dette: EU stoppet kjøpet av ARM i 2022. En Groq-lisensavtale er mye vanskeligere å gripe inn i regulatorisk.
Resultatet? Nvidia beholder kontrollen over det viktigste i inferens-markedet uten å formelt eie konkurrenten. Smarte jurister.
Nvidia trekker seg fra OpenAI og Anthropic
Mens Nvidia investerer 26 milliarder i egne modeller, trekker de seg ut av sine direkteinvesteringer i OpenAI og Anthropic. Den offisielle forklaringen er at selskapene nærmer seg børsnotering (IPO), og at det da er upassende å sitte som strategisk investor.
Det er en forklaring som ikke holder helt vann – sent-fase investeringer før IPO er helt normalt i tech-bransjen. Det som er mer interessant er pengestrømmene: Nvidia investerte i OpenAI → OpenAI kjøpte Nvidia-chips for milliarder → Nvidia fikk pengene tilbake. En sirkulær modell som ser mer ut som markedsbyggende enn strategisk kapitalallokering.
Nå som Nvidia bygger egne modeller er uansett situasjonen endret. Det ville være merkelig å sitte som investor i selskaper du er i ferd med å konkurrere direkte med.
Hvem utfordrer Nvidia?
La oss være realistiske: ingen er i nærheten av å ta over Nvidias posisjon i dag. Men det er aktører som gnager.
AMD er den nærmeste konkurrenten med Instinct MI300X. Ytelsesmessig er de konkurransedyktige. Men ROCm-programvaren er fremdeles langt bak CUDA-økosystemet, og de fleste bedrifter velger Nvidia fordi integrasjonen er enklere og støtten bedre.
Google Ironwood TPU er det mest seriøse alternativet – ikke fordi Google selger dem til andre, men fordi Google faktisk trente Gemini 3 helt uten Nvidia. En hyperskalert aktør som kan trene frontier-modeller uten Nvidia-hardware er et langsiktig signal om at monopolet har sine grenser.
Amazon Trainium og Microsoft Maia er egne brikker fra cloud-gigantene – designet for å redusere avhengigheten av Nvidia for interne arbeidsbelastninger. Ingen av dem er ennå nær H100/B200 i ytelse, men de eksisterer, og de forbedres.
OpenAI jobber med egne chips – de samarbeider med TSMC og planlegger angivelig en lanseringsdato. Motivasjonen er enkel: OpenAI bruker milliarder på Nvidia-hardware, og hvert krone som kan holdes internt er bedre for marginene.
Det store bildet: de som betaler mest til Nvidia – de store cloud-selskapene og AI-laboratoriene – er de som jobber hardest med å erstatte dem. Det er den klassiske «friend or foe»-dynamikken i tech. Nvidia vet dette, og det er trolig en av grunnene til at de investerer så aggressivt i egne modeller og software.
Nvidias rolle i AI-agenter
AI-agenter er det neste store kapittelet i AI-historien – systemer som ikke bare svarer på spørsmål, men som handler, planlegger og utfører oppgaver over tid. Nvidia har posisjonert seg nøye for dette skiftet.
NemoClaw, Holotron-12B, AI-Q – alle handler om agenter. I tillegg har Nvidia lansert Project DIGITS (en liten, kraftig PC for lokale AI-agenter), DGX Spark (workstation-versjon), og en rekke rammeverk for å bygge og kjøre agenter i produksjon.
Tanken er at AI-agenter vil trenge massiv inferens-kapasitet – ikke bare for én forespørsel, men for lange, komplekse oppgaver som kan kjøre i timer. Den infrastrukturen er Nvidias forretningsmodell: selg hardware-en agentene kjører på.
Jensen Huang har uttalt at han mener AGI – kunstig generell intelligens – er nådd i 2026, i hvert fall i en snever definisjon av begrepet. Om det er riktig eller ikke er åpent for debatt, men det sier noe om ambisjonene. Nvidia vil være fundamentet for det som kommer etter neste generasjons AI.

Hva betyr dette for deg?
Du trenger ikke kjøpe en H100 for at Nvidia skal påvirke livet ditt. Sannsynligvis bruker du allerede Nvidia-hardware – bare gjennom cloud-tjenestene du abonnerer på. ChatGPT? Trent og kjørt på Nvidia. Midjourney? Nvidia. Mesteparten av det som kalles AI i dag er Nvidia under panseret.
For gamere betyr det at RTX-kortet ditt er mer intelligent enn det var for noen år siden. DLSS 5 er ikke bare et gimmick – det er reell bildekvalitetsforbedring som lar deg spille krevende titler på rimelig hardware.
For hobbyister og utviklere som kjører lokale modeller: GPU-et i PC-en din er Nvidia-kompatibelt med CUDA. Det betyr at du kan kjøre Ollama, llama.cpp, ComfyUI og en rekke andre verktøy direkte – og det fungerer bare. AMD-brukere har mer å konfigurere.
For bedrifter er Nvidia-spørsmålet først og fremst et infrastrukturspørsmål: kjøpe egen hardware (dyrt, men full kontroll), leie cloud-GPU (RunPod, AWS, Azure – fleksibelt, men løpende kostnader), eller bruke API-er som abstraherer hardware helt bort (OpenAI, Anthropic – enklest, men du er låst til leverandøren).
Nvidia-dominansen er ikke utelukkende bra. Et monopol på kritisk infrastruktur er alltid et problem – for prissetting, for innovasjon, for forsyningssikkerhet. Men den er et faktum, og den har vart lenge nok til at det er vanskelig å se for seg at den raskt forsvinner.
Enn så lenge er Nvidia ryggmargen i AI-revolusjonen. Og ryggmargen i Nvidia er CUDA – et 18 år gammelt programvareforsprang som viste seg å være det viktigste konkurransefortrinnet i tech-historien.