Alice v1 er en 14-milliarder parameter open source videogenereringsmodell fra Mirage, lansert mai 2026 med Apache 2.0-lisens. Modellen bruker en spesiell destillasjonsteknologi kalt rCM (score-regularized consistency distillation) og hevder å produsere videoer av høyere kvalitet enn lukkede modeller som Sora og Veo – på bare 4 inferenstrinn mot de vanlige 50.

Det som gjør Alice interessant er ikke bare tallene, men hva arkitekturen faktisk gjør: den bruker Mixture-of-Experts (MoE) med totalt ~27 milliarder parametere, men aktiverer bare ~14 milliarder per steg. Det gir effektiviteten til en liten modell kombinert med kapasiteten til en stor. Genererer 5-sekunders 720p-video med 24 fps – og er tilgjengelig for alle å laste ned fra HuggingFace.

Open source videogenerering har beveget seg fort. Jeg har tidligere skrevet om LTX-2 som kongen av open source video-AI og Happy Horse fra Alibaba – og nå er Alice nok en modell som utfordrer den lukkede eliten. La meg grave litt i hva som faktisk er nytt her.

Hva er rCM-destillasjon, og hvorfor er det smart?

Tradisjonell destillasjon er et kompromiss: du tar en stor, treg lærermodell og trener en raskere elev-modell til å kopiere den. Resultatet er raskere, men som regel litt dårligere. Det er «prisen» du betaler for fart.

Alice gjør dette annerledes. rCM kombinerer to ting: konsistenstvanget (consistency enforcement) som sørger for at denoisingprosessen mapper til samme output uansett startpunkt, og score-regularisering som skyver modellen mot høykvalitets-output i stedet for bare å kopiere læreren. Resultatet, ifølge Mirage, er at eleven faktisk slår læreren på kvalitet.

Intuisjonen er grei: i stedet for å lære å kopiere alle mulige outputs fra læreren (inkludert middelmådige), lærer Alice å sikte mot de beste outputsene. Det er litt som å lære av en mester ved å fokusere på mesterverket, ikke gjennomsnittsproduksjonen.

Om det faktisk holder i praksis er et annet spørsmål – Mirage har ikke publisert kvantitative benchmarks med tallsammenligninger mot Sora eller Veo. Det er verdt å merke seg. «Surpasses closed-source models» er et sterkt utsagn uten konkrete tall å støtte seg på.

Mixture-of-Experts – hva betyr det for video?

MoE-arkitekturen er ikke ny i seg selv – den dukket opp i stor skala med Mixtral og er nå standard i mange store modeller. Men bruken i videogenerering er interessant fordi ulike faser av genereringen krever ulik kompetanse.

Alice bruker to spesialiserte eksperter:

  • High-noise expert: Tar seg av de tidlige denoisingtrinnene der modellen bygger grovstrukturen i videoen
  • Low-noise expert: Håndterer de siste trinnene der detaljer, tekstur og kantskarphet raffineres

Totalt ~27 milliarder parametere, men bare ~14 milliarder aktive per steg. Det betyr at du i teorien ikke trenger like mye VRAM som en fullstor 27B-modell ville kreve. Anbefalt hardware er en NVIDIA RTX 4090 – ikke noe du har i sekken, men heller ikke en spesialbygd datamaskin til millionkostnader.

Teknisk illustrasjon av rCM destillasjonsprosess med lærermodell og elevmodell for Alice v1 videogenerering
rCM-destillasjon lar elevmodellen produsere bedre resultater enn læreren ved å sikte mot de beste outputsene fremfor å kopiere gjennomsnittet.

Treningsdataen: 1 million prompts og hard example mining

Et interessant aspekt ved Alice er hvordan treningsdataen er satt sammen. Mirage har brukt GPT-4 til å generere én million diverse prompts, og deretter filtrert ut topp 30% av lærermodellens genereringer som treningsdata.

I tillegg bruker de noe de kaller «hard example mining» – en metode for å finne og over-representere vanskelige scener i treningsdataen. Konkret betyr det eksempler med kompleks fysikk, hender (notorisk vanskelig for AI), og ansikter. Forholdet mellom syntetisk og reell data er 70:30.

Den progressive treningsprotokollen er fire steg der modellen gradvis øker oppløsning fra 480p til 720p, med perceptuelle tap og DPO-justering (Direct Preference Optimization) mot slutten. Det er en solid metodikk som speiler mye av det vi ser i de beste bildegenererings-modellene overført til video.

Er Alice verdt å teste?

Det kommer an på hva du har av hardware. En RTX 4090 er minstekravet Mirage selv oppgir – det setter en tydelig grense for hvem som faktisk kan kjøre dette lokalt. De fleste hobbyister har ikke det. Men for deg som har tilgang til skytjenester som RunPod, er det mer overkommelig.

Teknisk sett ser oppsettet greit ut:

  • Python 3.10 eller nyere
  • CUDA 12.1 eller nyere
  • PyTorch 2.4.0 eller nyere
  • FP8-kvantisering støttes for å spare VRAM
  • LoRA-adaptere for finjustering
  • Batch-inferens fra JSON/JSONL/TXT-filer

Apache 2.0-lisensen betyr at du kan bruke dette kommersielt uten restriksjoner – det er alltid bra. Koden ligger på GitHub og modellvektene på HuggingFace.

Sammenlignet med LTX Video 2.3 som kan kjøre lokalt på mer tilgjengelig hardware, er Alice mer krevende. LTX-2 har imponert med 481 frames og 20 sekunder video på 25 minutter – det er en konkret referanse Alice må måle seg mot.

Illustrasjon som sammenligner open source og lukket AI-videogenerering - åpen dør med frie videostrømmer mot lukket hvelv
Open source videomodeller som Alice v1 utfordrer nå lukkede alternativer som Sora og Veo – med Apache 2.0-lisens som tillater full kommersiell bruk.

Open source vs. lukket: hva er egentlig forskjellen i 2026?

Det er noe som skjer i videogenereringsfeltet akkurat nå. For ett år siden var Sora fra OpenAI det uoppnåelige gullet – lukket, eksklusivt, dyrt. I dag har vi Alice, Happy Horse fra Alibaba, LTX-2, og flere andre open source alternativer som seriøst utfordrer den posisjonen.

Sier jeg at Alice er bedre enn Sora? Nei – ikke uten konkrete tall. Men det at modeller av denne kaliber nå er tilgjengelige med Apache 2.0, det forteller noe om retningen bransjen beveger seg.

Open source-miljøet rundt videogenerering er genuint spennende akkurat nå. Mirage er ikke noe gigantselskap – dette er forskning og utvikling som skjer i åpne fora, med modeller alle kan bygge videre på. Det er en helt annen dynamikk enn å betale et abonnement og håpe på at leverandøren er tilgjengelig.

Jeg skal holde et øye med Alice fremover. Når community-tester og sammenligninger dukker opp på Reddit og HuggingFace, vil vi få et klarere bilde av om rCM-destillasjonen faktisk leverer på løftet. Foreløpig er det et lovende paper og en tilgjengelig modell – og det er et godt sted å starte.

Legg igjen en kommentar

Din e-postadresse vil ikke bli publisert. Obligatoriske felt er merket med *

Meld deg på nyhetsbrevet

Få oppdateringer om AI nyhetene rett i inboxen!

Du liker kanskje denne også
Jan Sverre arbeider med Suno AI musikk-generering på datamaskinen, kreativt workspace med hodetelefoner

Suno AI – 150 Låter Testet: Hva Funker og Hva Er Bortkastet Tid

Jeg testet 150 Suno-låter og fant tydelige mønstre. Her er hva som faktisk gir kvalitet, og hva som bare kaster bort tid.
Jan Sverre med headphones og lydmikser i boardroom-møte med forvirrede executives

Suno AI Copyright 2026 – Opphavsrett og Rettigheter for AI-Musikk

Kan du tjene penger på Suno-musikk? Her er en praktisk gjennomgang av rettigheter, risiko og hva du bør avklare før publisering.
Jan Sverre riding a dinosaur in safari outfit, photorealistic AI-generated image demonstrating Nano Banana Pro capabilities

Jeg testet Nano Banana Pro: AI som faktisk skriver norsk i bilder

Endelig! En AI som kan generere norsk tekst i bilder med 94% nøyaktighet. Jeg testet Nano Banana Pro grundig – her er resultatene.
Jan Sverre styrer et digitalt kontrollpanel omgitt av Claude AI-symboler og glødende lysstriper i et mørkt rom

Claude AI – pris, funksjoner og norsk guide (2026)

Alt om Claude AI i 2026 – priser i norske kroner, Claude Pro vs Max, Claude Code, og ærlig sammenligning med ChatGPT. Komplett norsk guide fra en som bruker Claude daglig.