Det finnes mange AI-verktøy for videogenerering der ute. De fleste krever enten dyre abonnementer, skytjenester, eller hardware de færreste har råd til. LTX Video 2 er et unntak – en open source-modell som leverer imponerende resultater på vanlig forbruker-hardware.
Hva er LTX Video 2?
LTX Video 2 er utviklet av Lightricks og er den første DiT-baserte (Diffusion Transformer) video-modellen som kombinerer alle moderne video-genereringsfunksjoner i én pakke:
- Synkronisert audio og video – genererer lyd og bilde sammen
- Opptil 4K oppløsning ved 50 FPS
- Opptil 60 sekunder sammenhengende video
- Image-to-video – animer stillbilder
- Keyframe-støtte – definer start- og sluttpunkt
- Video extension – forleng eksisterende videoer
- LoRA-støtte – tilpass stilen med egne modeller
Modellen kommer i flere varianter: en full 19B-versjon og en destillert versjon som er betydelig raskere.
Hvorfor LTX Video skiller seg ut
I motsetning til mange konkurrenter er LTX Video designet for å kjøre lokalt. Den destillerte versjonen genererer HD-video på rundt 10 sekunder på en H100, men fungerer også på forbruker-GPUer som RTX 4090.
Sammenligning med Sky Reels V3: Jeg testet nylig Sky Reels V3 på min RTX 4090 og fikk 480p-video med 6 minutters ventetid. LTX Video 2 leverer bedre kvalitet på kortere tid – en merkbar forskjell i praksis.
Min erfaring: En komplett AI-film
For å teste LTX Video 2 ordentlig, lagde jeg en komplett AI-generert skrekkhistorie. Prosessen så slik ut:
- Manus og audio: Pocket-TTS genererte fortellerstemmen
- 33 stillbilder: Qwen Image 2512 (fp8) kjørte lokalt
- 33 videoscener: LTX Video 2 animerte hvert bilde
- Redigering: Satt sammen med undertekster
Resultatet er en 2,5 minutter lang skrekkfilm – helt AI-generert fra start til slutt:
Hver videoscene tok betydelig kortere tid enn med Sky Reels V3, og kvaliteten var merkbart bedre. Promptene var detaljerte og kinematografiske – LTX Video forstår kamerabevegelser som «dolly push-in», «rack focus» og «handheld movement».
Installasjon og oppsett
Å sette opp LTX Video lokalt krever litt teknisk kompetanse, men er overkommelig. Du trenger Python og kildekoden fra GitHub.
Du må laste ned modellfilene fra HuggingFace (19B-modellen er stor, men FP8-versjonen sparer VRAM). ComfyUI-integrasjon finnes også for de som foretrekker en visuell arbeidsflyt.
Tips for optimalisering:
- Bruk den destillerte modellen for raskere generering
- Aktiver FP8 for lavere VRAM-bruk
- Installer xFormers eller Flash Attention for bedre ytelse
Lisens og kommersiell bruk
LTX Video 2 bruker OpenRail-M-lisensen, som tillater kommersiell bruk. Dette gjør den attraktiv for innholdsskapere og mindre produksjonsselskaper som vil eksperimentere uten å betale for dyre tjenester.
Konklusjon
LTX Video 2 representerer et reelt gjennombrudd for lokal video-AI. Der andre modeller sliter med å levere brukbar kvalitet på forbruker-hardware, gir LTX Video 2 profesjonelle resultater uten å kreve datasenterdrift.
For de som vil leke med AI-video uten å binde seg til abonnementer eller skytjenester, er dette det beste alternativet akkurat nå. Kombinert med verktøy som Pocket-TTS for audio og lokale bildemodeller som Qwen Image, har du alt du trenger for å lage komplette AI-produksjoner hjemmefra.
Jeg kommer tilbake med en egen artikkel om Pocket-TTS senere – et fascinerende verktøy for AI-generert tale og historiefortelling.