DeepSeek V4 Pro og Flash er de nyeste modellene fra kinesiske DeepSeek – lansert med 1,6 billiarder parametere i Pro-varianten og full MIT-lisens. Begge modellene er tilgjengelige som open source, støtter opptil 1 million tokens kontekst, og kan – kanskje viktigst av alt – kjøres på Huawei Ascend-chips i stedet for Nvidias hardware.

Det er noe jeg finner genuint fascinerende med dette. DeepSeek leverer igjen en modell som teknisk sett er imponerende på papiret. Spørsmålet er om det holder som benchmarks-leder. Kort svar: ikke lenger. Men det er mer her enn konkurranseplassering.

Her er hva V4 faktisk er, hva som er nytt, og hvorfor Huawei-støtten er mer interessant enn den kanskje ser ut.

Hva er DeepSeek V4 Pro og Flash?

DeepSeek V4 kom i to varianter som treffer ganske forskjellige bruksområder. V4 Pro er den store: 1,6 billiarder totale parametere, men bare 49 milliarder aktive om gangen takket være Mixture of Experts-arkitektur (MoE). V4 Flash er langt mer letthåndterlig – 284 milliarder totale parametere med 13 milliarder aktive.

Begge er trent på 32-33 billiarder tokens, noe som gir omtrent 20 tokens per parameter. Begge har MIT-lisens, som betyr at du kan bruke dem kommersielt, modifisere dem, og bygge produkter oppå dem uten å betale DeepSeek noe som helst.

Og begge støtter nå 1 million tokens kontekst – en stor oppgradering fra 128 000 tokens i V3.2.

Hva er nytt sammenlignet med V3?

Det er ikke bare mer parametere. Arkitekturen har fått en skikkelig overhaling med et hybrid oppmerksomhetssystem som kombinerer flere smarte optimaliseringer:

  • Delte KV-vektorer som halverer KV-cache-størrelsen
  • Komprimerte KV-strømmer med 4x og 128x kompresjon
  • Top-k sparsom oppmerksomhet over komprimerte tokens
  • 128-tokens glidende vindu for lokal oppmerksomhet

Resultatet er ganske dramatisk i tall: V4 Pro bruker kun 27% av FLOPs-ene som V3.2 trengte ved 1 million tokens kontekst. KV-cache-minnet er redusert fra 83,9 GiB til 9,62 GiB – altså under 10% av det forrige generasjon krevde. Hele V4 Pro-modellen er designet for å passe på en enkelt 8×B200-node.

De har også innebygd tre forskjellige resonneringsmodi, og de eksponer nå både Base- og Instruct-varianter – noe som åpner for finjustering og spesialtilpasninger som ikke var like tilgjengelig tidligere. Basert på arkitekturvalget mener mange at dette er en slags forberedelse til en kommende DeepSeek R2.

Diagram over DeepSeek V4 Pro MoE-arkitektur med 1,6 billiarder totale parametere og 49 milliarder aktive parametere
MoE-arkitekturen aktiverer bare 49 milliarder av 1,6 billiarder parametere per token – det er grunnen til at modellen er så effektiv å kjøre.

Hvor god er DeepSeek V4 Pro egentlig?

Her er jeg nødt til å si det som det er: V4 Pro er veldig god, men den er ikke lenger benchmarks-kongen. Det er likevel ikke en liten prestasjon for en open source-modell.

På Artificial Analysis Intelligence Index scorer V4 Pro Max 52 poeng og er nummer to blant åpne vekt-modeller. V4 Flash Max scorer 47. På GDPval-AA (agentic real-world performance) topper V4 Pro listen blant åpne vekt-modeller med 1554 poeng. I LM Arena-rangeringen debuterte den som nummer to blant åpne modeller samlet, og faktisk nummer én i medisin og helsevesen.

Thinking-varianten ligger på nummer 8 i matematikk – ikke i toppen, men solid. Den best sammenlignbare posisjonen setter den rundt Claude Sonnet-klassen. Definitivt bedre enn GLM-5.1, men ikke på nivå med Opus 4.7, GPT-5.4 eller Gemini 3.1 Pro. Det er ikke nødvendigvis en skam – det er ganske vanlig at kinesiske modeller tar en kampsikker andreplass og konkurrerer hardt på pris.

Og prisingen er det virkelig noe å si på. V4 Pro koster $1,74 per million input-tokens og $3,48 per million output-tokens via API. Flash er enda billigere – $0,14 input og $0,28 output. For sammenligning er forrige generasjon DeepSeek V4 allerede et godt kjøp, og Flash er nesten latterlig billig for en 284 milliarder-parametermodell.

Hvorfor er Huawei Ascend-støtten interessant?

Dette er den biten av historien som fortjener mer oppmerksomhet enn den kanskje får. V4 er eksplisitt designet for å kjøre på Huawei Ascend-chips – ikke bare Nvidias H100 og B200.

USA har siden 2022 gradvis strammet inn eksportkontrollene på avansert AI-hardware til Kina. Det betyr at kinesiske selskaper som DeepSeek i prinsippet ikke kan kjøpe de nyeste Nvidia-chipene. Svaret fra Kina har vært å investere tungt i egne alternativer – og Huawei Ascend 910C og kommende 950-serien er der de satser.

DeepSeek signaliserte selv at prisene på V4 Pro kan «falle kraftig» når Huawei Ascend 950-supernoder distribueres i stor skala. Det forteller deg noe viktig: de forventer å kjøre store deler av infrastrukturen sin på kinesisk maskinvare fremover, ikke vestlig.

Dette er et stille, men viktig skift. Kinesiske AI-laboratorier er aktivt i ferd med å gjøre seg uavhengige av NVIDIA-avhengigheten. Har det ennå kommet til det punktet der Ascend er på nivå med H100? Ikke fullt ut. Men retningen er tydelig. Jeg har tidligere sett på GLM-5.1 som ble trent uten Nvidia-hardware – det er ikke lenger et unntak, det er en trend.

Sammenligning av Nvidia H100 og Huawei Ascend 910C AI-chips for kinesisk AI-infrastruktur uavhengig av US eksportkontroller
Kina investerer tungt i Huawei Ascend-chips som alternativ til eksportkontrollert Nvidia-hardware – DeepSeek V4 er designet for begge plattformer.

Bør du ta i bruk DeepSeek V4?

Det avhenger av hva du trenger. Flash er på mange måter det interessante alternativet for de fleste – 284 milliarder parametere til nesten ingen kostnad via API gjør den til en sterk kandidat for koding, skriving, og enklere agentoppgaver der du trenger volum og fart. Prisingen er mer som et «trykkbar uten å tenke»-nivå.

V4 Pro er for de som trenger topp åpen-modell-kvalitet til en brøkdel av hva lukkede modeller koster. Den sitter i et litt underlig spenn – den er ikke helt på nivå med de absolutt beste proprietære modellene, men den er åpen, redigerbar, og kan finjusteres for spesifikke domener.

Og hvis du er skeptisk til å sende data til kinesiske servere – noe jeg forstår – kan du i prinsippet kjøre den selv. Det er jo hele poenget med MIT-lisensen. Du trenger ganske mye hardware for V4 Pro (det er snakk om en 8×B200-node), men Flash er langt mer tilgjengelig for de som har tilgang til skikkelige GPUer.

Noe av det som irriterer meg litt med DeepSeek-debatten er at den alltid ender i enten overdrevet hype eller paranoiabasert avvisning. Modellene er teknisk gode. MIT-lisensen er ekte. Personvernspørsmålene ved å bruke deres API er reelle – men det er fullt mulig å bruke modellene uten å røre DeepSeek-serverne. Mer om hvordan den kinesiske AI-utfordreren posisjonerer seg har jeg skrevet om tidligere.

Hva betyr dette for open source AI-landskapet?

DeepSeek V4 bekrefter noe som har vært tydelig en stund: gapet mellom proprietære og åpne modeller krymper fortsatt. For et år siden var det utenkelig at en open source-modell kunne konkurrere med GPT-4 på bred basis. Nå sitter V4 Pro og sloss om topp-10-plasser globalt.

Mixtral, Llama, Qwen, GLM, og nå DeepSeek V4 – open source AI-landskapet er langt rikere og mer kompetitivt enn det noen hadde sett for seg. Det er bra. Konkurranse driver innovasjon, og åpne modeller gir deg kontrollen over egne data.

Jeg er fremdeles skeptisk til å bruke DeepSeek-API-et direkte – kinesisk lovgivning gjør det vanskelig å vite hvem som har tilgang til data som passerer gjennom. Men selve modellene, kjørt lokalt eller på infrastruktur du kontrollerer? Det er en annen samtale. V4 Flash spesielt er verdt å ha på radaren.

Legg igjen en kommentar

Din e-postadresse vil ikke bli publisert. Obligatoriske felt er merket med *

Meld deg på nyhetsbrevet

Få oppdateringer om AI nyhetene rett i inboxen!

Du liker kanskje denne også
Jan Sverre med headphones og lydmikser i boardroom-møte med forvirrede executives

Suno AI Copyright 2026 – Opphavsrett og Rettigheter for AI-Musikk

Kan du tjene penger på Suno-musikk? Her er en praktisk gjennomgang av rettigheter, risiko og hva du bør avklare før publisering.
Jan Sverre tester GPT-5.2 ved en transparent OpenAI GPT-skjerm

GPT-5.2: Jeg testet OpenAIs nyeste modell – her er hva som faktisk fungerer

GPT-5.2 er ute med tre versjoner. Jeg har testet thinking-modellen, sammenlignet med 5.1, og funnet ut hva som faktisk er bedre. Her er mine erfaringer.
Jan Sverre styrer et digitalt kontrollpanel omgitt av Claude AI-symboler og glødende lysstriper i et mørkt rom

Claude AI – pris, funksjoner og norsk guide (2026)

Alt om Claude AI i 2026 – priser i norske kroner, Claude Pro vs Max, Claude Code, og ærlig sammenligning med ChatGPT. Komplett norsk guide fra en som bruker Claude daglig.
Jan Sverre profesjonelt fotograf-kvalitet portrett AI-generert bildegenerering

Google NotebookLM

Google NotebookLM er en AI-assistent som gjør dokumenter om til interaktive samtaler, studieguidere og podcasts på norsk. Nå drevet av Gemini 3 Pro med nye funksjoner som infographics, slide decks og Deep Research. Komplett guide til gratis vs. Plus-versjon.