Det har skjedd et massivt skifte i AI-landskapet. Google er ikke lenger den sovende giganten som prøver å holde tritt – de leder an. OpenAI har erklært «code red» internt og utsatt planene om å kjøre annonser i ChatGPT. Microsoft og OpenAI ville få Google til å «danse», men nå er det OpenAI som må reagere.
For bare tre uker siden virket det som om OpenAI hadde en komfortabel posisjon. Men så lanserte Google Gemini 3.0, Warren Buffett avslørte sin Google-investering, og Semi Analysis publiserte sin grundige analyse av Googles TPU-strategi. Plutselig blir bildet klart: Google dominerer ikke bare på ett område – de dominerer hele stacken.
Fra egenutviklede AI-chips til applikasjoner som konkurrerer direkte med Cursor og ChatGPT, bygger Google et økosystem som ingen andre kan matche. Mens OpenAI sliter med å fullføre nye modeller, har Google trent Gemini 3.0 utelukkende på sine egne TPUer – uten en eneste Nvidia GPU.
Googles fullstendige kontroll: Fra chips til apps
Det som gjør Google unike er at de nå dominerer alle lag i AI-stacken. Ikke bare modeller. Ikke bare infrastruktur. Alt.
På hardware-laget har Google utviklet sine egne AI-chips – TPUer (Tensor Processing Units) – som konkurrerer direkte med Nvidias GPUer. Den store nyheten? Gemini 3.0 ble trent utelukkende på TPUer. Dette er revolusjonerende fordi Nvidia har hatt et kvasi-monopol på AI-training hardware i årevis. Google beviste at de kan lage state-of-the-art modeller uten å være avhengige av Nvidia.
Google har ikke bare chips – de har massive datasentre optimalisert for AI-arbeidsbelastninger. De selger nå kapasitet gjennom Google Cloud til andre labs som Anthropic. Men her er forskjellen fra Nvidia: du kan ikke kjøpe TPUer og bygge ditt eget rack. Google leaser kun TPU-kapasitet gjennom skyen. Dette gir Google full kontroll over distribusjonen og tvinger konkurrenter til å bruke Google Cloud.

På AI-lab-nivået har Google et helt arsenal av modeller: Gemini 3.0 (best-in-class LLM), Nano Banana (bildemodell), Veo 3 (videomodell med lyd), AlphaFold (proteinforskning), AlphaCode (koding), Imagen (bildegenerering), musikk-modeller, og flere. Dette er ikke en one-trick pony.
Og nå er Google også aggressiv på applikasjonslaget. Antigravity konkurrerer direkte med Cursor, GitHub Copilot, og andre AI-kodingsplattformer. Gemini er integrert overalt: Google Maps, Google Home, Gmail, Drive. Firebase tilbyr AI-utviklerverktøy. Jewels tilbyr AI-assistenter.
Brukerstatistikk: 200 millioner nye på tre måneder
Tallene snakker for seg selv. I juli 2024 hadde Gemini 450 millioner aktive brukere. I oktober 2024 var det 650 millioner aktive brukere.
Det er 200 millioner nye brukere på 3 måneder. Dette er ikke en liten økning – det er eksponentiell vekst.
OpenAIs utfordringer: Code red og ingen nye modeller
Mens Google vokser, sliter OpenAI. Interne memoer viser at teamet er svært bevisst på konkurransen. Sam Altman har erklært «code red» for å bekjempe Googles fremgang. Planer om å kjøre annonser i gratis ChatGPT-kontoer er satt på vent. CFO har nevnt at veksten avtar.
Men det mest alarmerende er dette:
OpenAIs ledende forskere har ikke fullført en vellykket full-scale pre-training run som ble bredt distribuert siden GPT-4o i mai 2024.
Dette er massivt. Det betyr at OpenAI ikke har lansert en ny frontier-modell på over 6 måneder. De sliter med den teknisk mest krevende delen av AI-utvikling. Samtidig har Google trent Gemini 3.0 utelukkende på sine egne TPUer og levert en state-of-the-art modell.

OpenAI jobber med en ny modell kodenavnet «Garlic» som skal konkurrere med Gemini 3.0. Navnet ser ut til å være en referanse til Sam Altmans video hvor han koker og hakker masse hvitløk i kjøkkenet sitt – muligens som et «shot across the bow» til Google. Google gjør det samme – de navngir modeller med betydninger som stikker til OpenAI. For eksempel Veo 3-lanseringen på Google I/O hadde en scene med steking av mat og lyd – noe som speiler OpenAIs garlic-video.
TPU vs GPU: Googles hemmelige våpen
Semi Analysis publiserte nylig en grundig rapport om hvorfor Googles TPU-strategi er så kraftig. Her er de viktigste innsiktene:
Pre-training er fortsatt den vanskeligste delen. Mye av oppmerksomheten nå fokuserer på inferens og post-training, men pre-training av frontier-modeller er fortsatt den mest ressurskrevende utfordringen. Google har mestret dette med TPUer. OpenAI har ikke.
TPUer anses som «omtrent like gode» eller «litt bedre» enn Nvidia GPUer for machine learning-oppgaver. Google er den eneste som har et system som faktisk konkurrerer med Nvidia. Google tenkte på «system-level architectures» i nesten et tiår – før Nvidia gjorde det. Nvidia lanserte GB200 NVL72 (et rack med 72 GPUer) i 2025 som et gjennombrudd, men Google har jobbet med system-level integrasjon lenge før dette.
Nvidia tar 75% gross margin på hardware. Google tar mindre enn 75% på TPU-kapasitet. Dette betyr at Google kan underby Nvidia på pris per token og beregning.
Tidligere var Googles stack proprietær og kun kjent av Google-ansatte. Men mange ex-Google-ingeniører har gått til OpenAI, Anthropic, Meta, og xAI. De tar med seg kunnskap om TPU-programmering. Dette gjør TPUer mer attraktive for andre labs. Anthropic har signert en massiv deal med Google for å bruke Google Cloud og TPUer. Dette betyr at Anthropic nå er avhengig av en konkurrerende AI-lab for infrastruktur.
Broadcom: Den skjulte spilleren
Google er ikke helt vertikalt integrert. De er avhengige av Broadcom for kritisk IP som er nødvendig for å bygge TPUer.
Broadcom er nå verdt 1 trillion dollar. Det er ikke et kjent navn, men burde være det. Broadcom tar over 60% margin på sine chips og IP. Uten Broadcom kan ikke Google bygge konkurransedyktige TPUer.
Dette betyr at Google ikke opererer med 100% kontroll – de betaler Broadcom en betydelig del av kostnadene. Men de har fortsatt en bedre margin enn om de kjøpte Nvidia-hardware.
Warren Buffetts Google-investering
Warren Buffett kjøpte en betydelig mengde Google-aksjer i oktober/november 2024 (offentliggjort senere). Hvorfor?
Buffett investerer sjelden i tech, men han ser sannsynligvis Googles dominans på alle lag i AI-stacken. Googles evne til å bygge state-of-the-art modeller på egen hardware. Googles massive kapital, talent pool, og data-tilgang. Lang-term strategisk posisjonering.
Project Genesis: Googles partnerskap med Det Hvite Hus
Google har et partnerskap med det amerikanske White House kalt Project Genesis. Detaljer er fortsatt vage, men det vi vet: Google vil få tilgang til klassifisert data. De skal bygge en vitenskapelig AI-forsker sammen med regjeringen. Andre frontier labs er inkludert, men Google er en av hovedaktørene.
Dette kan gi Google tilgang til data og forskningskapasiteter som ingen andre kommersielle aktører har.
Hva betyr dette for bransjen?
Vinnere: Google dominerer på alle lag. Broadcom er kritisk leverandør til Google. Anthropic har tilgang til Google Cloud og TPUer.
Bekymrede: OpenAI sliter med pre-training, mister brukere, erklærer code red. Nvidia ser at Google beviser at du ikke trenger Nvidia for state-of-the-art modeller. Applikasjonsselskaper som Cursor ser at Google konkurrerer direkte med Antigravity.
Usikre: Microsoft er partnere med OpenAI, men OpenAI sliter. Andre datasenter-selskaper ser at Google kan underby dem med Google Cloud.
Konklusjon
Det er nå «Googles race to lose», som Satya Nadella sa. Microsoft og OpenAI ville få Google til å «danse» – og Google danset. Men nå er det OpenAI som må danse.
Google har egne chips (TPUer), egne datasentre (Google Cloud), state-of-the-art modeller (Gemini 3.0, Veo, Nano Banana), applikasjoner (Antigravity, Gemini i alle Google-produkter), massive brukervekst (650 millioner Gemini-brukere), partnerskap med White House (Project Genesis), tilgang til enorme mengder data, og verdens beste AI-talentpool.
Med mindre Google gjør alvorlige feil, vil de fortsette å lede. OpenAI, Nvidia, og andre må finne ut hvordan de kan konkurrere med en gigant som dominerer hele stacken.