Jan Sverre Bauge jobber med LTX Video 2 AI-videogenerering i sitt hjemmestudio
AI-videogenerering har blitt tilgjengelig for vanlige brukere med verktøy som LTX Video 2.


Det finnes mange AI-verktøy for videogenerering der ute. De fleste krever enten dyre abonnementer, skytjenester, eller hardware de færreste har råd til. LTX Video 2 er et unntak – en open source-modell som leverer imponerende resultater på vanlig forbruker-hardware.

Hva er LTX Video 2?

LTX Video 2 er utviklet av Lightricks og er den første DiT-baserte (Diffusion Transformer) video-modellen som kombinerer alle moderne video-genereringsfunksjoner i én pakke:

  • Synkronisert audio og video – genererer lyd og bilde sammen
  • Opptil 4K oppløsning ved 50 FPS
  • Opptil 60 sekunder sammenhengende video
  • Image-to-video – animer stillbilder
  • Keyframe-støtte – definer start- og sluttpunkt
  • Video extension – forleng eksisterende videoer
  • LoRA-støtte – tilpass stilen med egne modeller

Modellen kommer i flere varianter: en full 19B-versjon og en destillert versjon som er betydelig raskere.

Hvorfor LTX Video skiller seg ut

I motsetning til mange konkurrenter er LTX Video designet for å kjøre lokalt. Den destillerte versjonen genererer HD-video på rundt 10 sekunder på en H100, men fungerer også på forbruker-GPUer som RTX 4090.

Sammenligning med Sky Reels V3: Jeg testet nylig Sky Reels V3 på min RTX 4090 og fikk 480p-video med 6 minutters ventetid. LTX Video 2 leverer bedre kvalitet på kortere tid – en merkbar forskjell i praksis.

Min erfaring: En komplett AI-film

For å teste LTX Video 2 ordentlig, lagde jeg en komplett AI-generert skrekkhistorie. Prosessen så slik ut:

  1. Manus og audio: Pocket-TTS genererte fortellerstemmen
  2. 33 stillbilder: Qwen Image 2512 (fp8) kjørte lokalt
  3. 33 videoscener: LTX Video 2 animerte hvert bilde
  4. Redigering: Satt sammen med undertekster

Resultatet er en 2,5 minutter lang skrekkfilm – helt AI-generert fra start til slutt:

Hver videoscene tok betydelig kortere tid enn med Sky Reels V3, og kvaliteten var merkbart bedre. Promptene var detaljerte og kinematografiske – LTX Video forstår kamerabevegelser som «dolly push-in», «rack focus» og «handheld movement».

Installasjon og oppsett

Å sette opp LTX Video lokalt krever litt teknisk kompetanse, men er overkommelig. Du trenger Python og kildekoden fra GitHub.

Du må laste ned modellfilene fra HuggingFace (19B-modellen er stor, men FP8-versjonen sparer VRAM). ComfyUI-integrasjon finnes også for de som foretrekker en visuell arbeidsflyt.

Tips for optimalisering:

  • Bruk den destillerte modellen for raskere generering
  • Aktiver FP8 for lavere VRAM-bruk
  • Installer xFormers eller Flash Attention for bedre ytelse

Lisens og kommersiell bruk

LTX Video 2 bruker OpenRail-M-lisensen, som tillater kommersiell bruk. Dette gjør den attraktiv for innholdsskapere og mindre produksjonsselskaper som vil eksperimentere uten å betale for dyre tjenester.

Konklusjon

LTX Video 2 representerer et reelt gjennombrudd for lokal video-AI. Der andre modeller sliter med å levere brukbar kvalitet på forbruker-hardware, gir LTX Video 2 profesjonelle resultater uten å kreve datasenterdrift.

For de som vil leke med AI-video uten å binde seg til abonnementer eller skytjenester, er dette det beste alternativet akkurat nå. Kombinert med verktøy som Pocket-TTS for audio og lokale bildemodeller som Qwen Image, har du alt du trenger for å lage komplette AI-produksjoner hjemmefra.

Jeg kommer tilbake med en egen artikkel om Pocket-TTS senere – et fascinerende verktøy for AI-generert tale og historiefortelling.

Legg igjen en kommentar

Din e-postadresse vil ikke bli publisert. Obligatoriske felt er merket med *

You May Also Like

Step-3.5-Flash slår DeepSeek og GLM — og er gratis på OpenRouter

Step-3.5-Flash fra kinesiske Stepfun slår både DeepSeek V3.2 og GLM-4.7 på viktige benchmarks – og er nå gratis tilgjengelig på OpenRouter.

OpenAI svarer med GPT-5.3 Codex — selvforbedrende AI som bygget seg selv

Kun 15 minutter etter at Anthropic slapp Claude Opus 4.6, kontret OpenAI…

Jeg testet Sky Reels V3 – Open source video-AI med store krav

Jeg testet Sky Reels V3 på min RTX 4090 med 24GB VRAM. Resultatet? 480p oppløsning og 6 minutters ventetid for 5 sekunder video. Imponerende open source-teknologi, men fortsatt for krevende for vanlige brukere.

Google lanserer Agentic Vision: AI som aktivt utforsker bilder

Google har lansert Agentic Vision i Gemini 3 Flash – en ny funksjon som lar AI aktivt utforske bilder ved å zoome inn, inspisere detaljer og manipulere bilder steg for steg.