Happy Horse er en ny AI-videomodell som 8. april 2026 toppet Artificial Analysis video arena-leaderboardet med nesten 100 ELO-poeng foran Seedance 2.0. Modellen er bekreftet å komme fra Alibaba og Qwen-teamet, og skal etter planen slippes open source.

Ja, du leste riktig. Et navn som høres ut som en barnefilm-hest har altså slått alle de store, closed-source videomodellene i en åpen menneskelig preferansetest. Det er litt absurd. Det er litt herlig. Og det er faktisk ganske viktig for alle som jobber med AI-video.

Her er hva vi vet så langt – og hvorfor det betyr mer enn bare en leaderboard-plassering.

Hva er Happy Horse?

Happy Horse dukket opp anonymt i Artificial Analysis video arena – en arena der menneskelige testere rangerer videoer uten å vite hvilken modell som genererte dem. Det er en av de mest troverdige metodene for å måle faktisk kvalitet, fordi folk stemmer på det de faktisk liker, ikke på hype.

Modellen ble raskt gjenstand for spekulasjon. Brent Lynch og andre på X pekte mot at det var en asiatisk modell, og Wan 2.7 fra Alibaba ble nevnt som kandidat. Men 8. april 2026 ble det bekreftet: dette er et Alibaba/Qwen-prosjekt. Og nei, det er ikke Wan 2.7 – det er noe annet.

ELO-ledelsen er ikke marginal. Med mange samples i rangeringen og nesten 100 ELO-poeng foran Seedance 2.0, er dette statistisk solide tall. Seedance 2.0 er den modellen som har vært ansett som toppen av AI-video siden lansering. Happy Horse har nå passert den.

Hva kan den egentlig?

Basert på samples fra video-arenaen ser Happy Horse slik ut teknisk:

  • Oppløsning: 720p
  • Native audio: Ja – lyd genereres direkte, ikke lagt til etterpå
  • Flerscenevideo: En tydelig styrke – multi-shot klipp er imponerende
  • Fysikksimulering: Solid. Basketball-net som beveger seg etter at ballen går gjennom, knust is i sakteopptaksstil – begge ser troverdige ut
  • 2D-animasjon: Beholder stilen fra input-bildet godt
  • Ild og lyseffekter: Fungerer bra

Det er også svakheter verdt å nevne, for det er ikke en uten videre Seedance 2.0-erstatning. Raske bevegelser kan gi warping og en slags «mushiness» – men modellen korrigerer seg raskt, og i mange tilfeller merker man det knapt. Noen objekter kan bli feil (en teleskop-scene var ikke helt korrekt konstruert). Lydmiksen kan lyde litt «cartoony» i visse scener. Og som alle arena-modeller: du får ikke Happy Horse i hvert eneste forsøk.

Vurderingen? Omtrent 80% av Seedance 2.0 i kvalitet. Ikke en direkte erstatning, men imponerende nær – spesielt tatt i betraktning det som kommer neste.

Abstrakt visualisering av Happy Horse på toppen av AI-video-leaderboardet med nesten 100 ELO-poeng foran Seedance 2.0 på Artificial Analysis
Happy Horse leder Artificial Analysis video arena med nesten 100 ELO-poeng foran Seedance 2.0 – en av de største ledelsene leaderboardet har sett.

Hvorfor er open source den virkelig store nyheten?

Alle de seriøse videomodellene er per i dag lukket. Seedance 2.0 har ikke engang offentlig API ennå – du kan bruke den via Polo AI, og den er nå i ferd med å rulles ut til Runway ML, men det er fortsatt andres infrastruktur, andres priser, andres regler. Kling er closed source. Veo 3.1 fra Google er closed og dyr.

Happy Horse åpen kildekode betyr noe konkret:

  • Utviklere kan bygge videoverktøy på toppen uten lisensproblemer
  • Du kan potensielt kjøre den på egen infrastruktur
  • Ingen kan stenge tilgangen din med et API-prishopp
  • Kreative og byråer som ikke har råd til Seedance-priser får et reelt alternativ

Jeg har skrevet om dette mønsteret før i forbindelse med AI-videoguiden for 2026: det store spørsmålet i AI-video har alltid vært om noen ville gi ut noe genuint bra som åpen kildekode. Wan 2.6 var et steg i riktig retning, men Happy Horse er et steg til. En modell som faktisk topper leaderboardet, nå som åpen kode. Det er et vendepunkt.

Noen vil si «men 80% av Seedance er ikke 100%». Sant. Men 80% av Seedance som du eier og kjører selv – kontra 100% av Seedance der du er avhengig av ByteDance sin infrastruktur og politikk – det regnestykket er ikke like enkelt som det ser ut.

Alibabas mønster – ikke en overraskelse

Alibaba og Qwen-teamet har blitt en av de mest konsistente kildene til sterke open source AI-modeller gjennom 2025-2026. Jeg har dekket Qwen 3.5 Omni og Qwen 3.6 Plus – begge imponerende, begge åpne. Happy Horse følger det samme mønsteret: bygg noe som konkurrerer med de beste, og slipp det fritt.

Det er en strategi som gagner Alibaba (de bygger troverdighet og tiltrekker utviklere til sitt økosystem) og som gagner alle oss som foretrekker å ikke være avhengige av ett selskaps skyinfrastruktur. En sjelden win-win.

Konseptuell illustrasjon som sammenligner lukket og åpen AI-videomodell - mørkt industrilandskap mot lyst åpent landskap med frie datastrømmer
Seedance 2.0, Kling og Veo 3.1 er alle closed source. Happy Horse fra Alibaba endrer ligningen ved å tilby topp-tier kvalitet som åpen kildekode.

Hva vet vi ikke ennå?

En del. Modellvekter og lisens er ikke sluppet ennå per 8. april 2026 – vi vet at det kommer, men ikke når. Vi vet heller ikke:

  • Hvilke maskinvarekrav modellen har (er den konsumentGPU-vennlig eller krever den server-grade hardware?)
  • Nøyaktig lisenstype (Apache 2.0? CC? Noe med restriksjoner?)
  • Om den støtter image-to-video, ikke bare text-to-video
  • Maksimal videolengde

Alt dette vil avgjøre hvor praktisk nyttig modellen faktisk er. Men starten er lovende. Og «Happy Horse» er faktisk et ganske minneverdig navn. Kanskje nesten like minneverdig som Nano Banana. AI-lab-er er åpenbart ferdige med seriøse navn.

Sammenligning med alternativene

For å sette Happy Horse i kontekst – hvor er de andre modellene nå?

Seedance 2.0 er fortsatt fremragende. Jeg har skrevet om den i Seedance 2.0-artikkelen min – den er god på kinematisk stil, lyd og realisme. Men ingen API ennå, og ByteDances sikkerhetsfiltere er svært strenge (ingen ansikter, begrenset vold, etc.).

Kling (senest Kling O1) er solid på spatiale scener og multi-person interaksjoner, men er closed og krever API-tilgang via tredjeparter.

Veo 3.1 er Googles flaggskip – kraftig, men tilgjengelig kun via Google’s infrastruktur og med sine egne restriksjoner og priser.

LTX Video 2, som jeg testet i LTX-artikkelen, er allerede et godt open source-alternativ for lokal kjøring – men Happy Horse ser ut til å være et kvalitetsnivå over.

Happy Horse, om den slippes med rimelige lisensvilkår, fyller et hull ingen av disse dekker: topp-tier kvalitet, åpen kode.

Når kan vi bruke den?

Per 8. april 2026 er modellen tilgjengelig i Artificial Analysis video arena, der du kan stemme på og rangere videoer – men du kan ikke sende inn egne prompts. Det er ikke en brukbar API eller lokal nedlasting ennå.

Alibaba har bekreftet at den slippes open source. Timing er ukjent. Basert på Qwen-teamets tempo med tidligere lanseringer er det rimelig å anta uker, ikke måneder. Men det er spekulasjon.

Til det skjer: hold et øye med Artificial Analysis leaderboardet og Alibabas offisielle kanaler. Og kanskje lær deg å like «Happy Horse» som navn, for det er sannsynligvis det du kommer til å skrive inn i kommandolinjen snart.

Legg igjen en kommentar

Din e-postadresse vil ikke bli publisert. Obligatoriske felt er merket med *

Meld deg på nyhetsbrevet

Få oppdateringer om AI nyhetene rett i inboxen!

Du liker kanskje denne også
Jan Sverre arbeider med Suno AI musikk-generering på datamaskinen, kreativt workspace med hodetelefoner

Suno AI – 150 Låter Testet: Hva Funker og Hva Er Bortkastet Tid

Jeg testet 150 Suno-låter og fant tydelige mønstre. Her er hva som faktisk gir kvalitet, og hva som bare kaster bort tid.
Jan Sverre med headphones og lydmikser i boardroom-møte med forvirrede executives

Suno AI Copyright 2026 – Opphavsrett og Rettigheter for AI-Musikk

Kan du tjene penger på Suno-musikk? Her er en praktisk gjennomgang av rettigheter, risiko og hva du bør avklare før publisering.
Jan Sverre riding a dinosaur in safari outfit, photorealistic AI-generated image demonstrating Nano Banana Pro capabilities

Jeg testet Nano Banana Pro: AI som faktisk skriver norsk i bilder

Endelig! En AI som kan generere norsk tekst i bilder med 94% nøyaktighet. Jeg testet Nano Banana Pro grundig – her er resultatene.
Jan Sverre tester GPT-5.2 ved en transparent OpenAI GPT-skjerm

GPT-5.2: Jeg testet OpenAIs nyeste modell – her er hva som faktisk fungerer

GPT-5.2 er ute med tre versjoner. Jeg har testet thinking-modellen, sammenlignet med 5.1, og funnet ut hva som faktisk er bedre. Her er mine erfaringer.