LTX-2 er ikke bare nok en AI-videomodell. Dette er kanskje den viktigste utgivelsen vi har sett innen open source video-AI — og grunnen handler ikke bare om kvalitet, men om hvordan Lightricks har valgt å dele den med verden.

Ikke bare weights — men hele systemet

Det som gjør LTX-2 spesiell er måten Lightricks har sluppet den på. Vanligvis betyr «open source» i AI-verdenen at du får noen modellvekter og et «lykke til». LTX-2 er noe helt annet.

Du får ikke bare vektene for lokal inferens. Du får hele treningsrammeverket. Oppskriftene. En modulær pipeline for fortsatt pre-trening og domenetilpasning. Dette betyr at utviklere og studioer faktisk kan tilpasse modellen til sine egne behov og arbeidsflyter — ikke bare bruke den som den er.

For oss som liker å kjøre ting lokalt, er dette gull verdt. Det er forskjellen på å få en ferdig kake versus å få oppskriften, ingrediensene, og tilgang til bakerens kjøkken.

Hva LTX-2 faktisk kan

La meg liste opp hva du får med denne utgivelsen:

  • Tekst til video — beskriv hva du vil ha, få video tilbake
  • Bilde til video — animer stillbilder
  • Video til video — transformer eksisterende video
  • Audio-betinget generering — ja, lyd er innebygd
  • Opptil 4K oppløsning — ikke bare småklipp
  • LoRA-støtte — tren dine egne stiler

Og alt dette kan kjøres på din egen maskin. Ingen API-nøkler. Ingen månedlige abonnementer. Ingen «vi har stengt tilgangen fordi du genererte noe vi ikke likte».

Full vs Distilled — valget er ditt

Lightricks har sluppet flere varianter av modellen. Den fulle versjonen gir best kvalitet, men krever en del VRAM. Har du en RTX 4090 med 24 GB? Da kjører du den fulle modellen uten problemer.

Men her kommer det smarte: De har også sluppet distillerte og kvantiserte varianter som reduserer minnekravene betydelig. Du trenger ikke nødvendigvis toppmaskinvare for å komme i gang. Har du et rimelig moderne Nvidia-kort, kan du teste dette selv.

Jeg har selv testet LTX-2 på min egen RTX 4090, og kan bekrefte at det faktisk fungerer. Ikke bare som en teknisk demo, men som et verktøy du faktisk kan bruke til å lage ting.

ComfyUI-integrasjon fra dag én

En av tingene som ofte stopper folk fra å bruke nye AI-modeller er oppsettet. «Installer disse 47 avhengighetene, kompiler dette biblioteket, og be til at CUDA-versjonen din stemmer.»

LTX-2 integrerer direkte i ComfyUI med ferdiglagde workflows tilgjengelig ved lansering. Last ned vektene, dra dem inn i ComfyUI, og du er i gang. Lightricks har til og med laget en egen ComfyUI-repo med alt du trenger.

Hvorfor dette er viktig

Vi lever i en tid der de store AI-selskapene stadig strammer grepet. Modeller som var åpne blir lukket. API-priser øker. Bruksvilkår blir strengere. Og plutselig er du avhengig av et selskap som kan endre spillereglene når som helst.

LTX-2 representerer det motsatte. Full åpenhet. Full kontroll. Du eier modellen på maskinen din. Du kan trene den videre. Du kan tilpasse den. Og ingen kan ta den fra deg.

For meg som klassisk liberalist er dette musikk i ørene. Markedet — ikke byråkrater eller storselskaper — bestemmer hva du kan lage. Det er slik det burde være.

Er dette fremtiden for AI-video?

Jeg tror vi ser begynnelsen på noe stort her. Når open source-alternativene blir gode nok til praktisk bruk, mister de lukkede plattformene mye av sin makt. LTX-2 er kanskje ikke helt på nivå med de beste kommersielle løsningene ennå — men gapet krymper raskt.

Og viktigere: Med full tilgang til treningskoden vil fellesskapet kunne forbedre denne modellen på måter Lightricks aldri kunne gjort alene. Det er kraften i ekte open source.

Så ja, jeg kaller LTX-2 kongen av open source video-AI. Ikke fordi den nødvendigvis lager de peneste videoene akkurat nå, men fordi den viser hvordan det burde gjøres. Åpent. Tilgjengelig. Fritt.

Og det er ganske kult at jeg kan lage videoer av meg selv som action-helt på min egen PC, uten å spørre noen om lov.

Les: Lage video med AI – komplett guide (2026).

Les: Open source AI – komplett guide (2026).

1 kommentar
Legg igjen en kommentar

Din e-postadresse vil ikke bli publisert. Obligatoriske felt er merket med *

Meld deg på nyhetsbrevet

Få oppdateringer om AI nyhetene rett i inboxen!

Du liker kanskje denne også
Jan Sverre arbeider med Suno AI musikk-generering på datamaskinen, kreativt workspace med hodetelefoner

Suno AI – 150 Låter Testet: Hva Funker og Hva Er Bortkastet Tid

Jeg testet 150 Suno-låter og fant tydelige mønstre. Her er hva som faktisk gir kvalitet, og hva som bare kaster bort tid.
Jan Sverre med headphones og lydmikser i boardroom-møte med forvirrede executives

Suno AI Copyright 2026 – Opphavsrett og Rettigheter for AI-Musikk

Kan du tjene penger på Suno-musikk? Her er en praktisk gjennomgang av rettigheter, risiko og hva du bør avklare før publisering.
Jan Sverre riding a dinosaur in safari outfit, photorealistic AI-generated image demonstrating Nano Banana Pro capabilities

Jeg testet Nano Banana Pro: AI som faktisk skriver norsk i bilder

Endelig! En AI som kan generere norsk tekst i bilder med 94% nøyaktighet. Jeg testet Nano Banana Pro grundig – her er resultatene.
Jan Sverre sitter ved sitt kraftige AI-workstation oppsett med ultrawide skjerm og flere PC-er som kjører Ollama og lokale LLM-modeller

Ollama Guide – Kjør AI Gratis og Lokalt på Din Egen PC (2026)

Komplett guide til Ollama og lokale LLM-er på RTX 4090. Lær quantisering, Hugging Face import, beste modeller (Gemma 3, Qwen 3), GDPR-fordeler og full kostnadskontroll.