LTX-2 er ikke bare nok en AI-videomodell. Dette er kanskje den viktigste utgivelsen vi har sett innen open source video-AI — og grunnen handler ikke bare om kvalitet, men om hvordan Lightricks har valgt å dele den med verden.
Ikke bare weights — men hele systemet
Det som gjør LTX-2 spesiell er måten Lightricks har sluppet den på. Vanligvis betyr «open source» i AI-verdenen at du får noen modellvekter og et «lykke til». LTX-2 er noe helt annet.
Du får ikke bare vektene for lokal inferens. Du får hele treningsrammeverket. Oppskriftene. En modulær pipeline for fortsatt pre-trening og domenetilpasning. Dette betyr at utviklere og studioer faktisk kan tilpasse modellen til sine egne behov og arbeidsflyter — ikke bare bruke den som den er.
For oss som liker å kjøre ting lokalt, er dette gull verdt. Det er forskjellen på å få en ferdig kake versus å få oppskriften, ingrediensene, og tilgang til bakerens kjøkken.
Hva LTX-2 faktisk kan
La meg liste opp hva du får med denne utgivelsen:
- Tekst til video — beskriv hva du vil ha, få video tilbake
- Bilde til video — animer stillbilder
- Video til video — transformer eksisterende video
- Audio-betinget generering — ja, lyd er innebygd
- Opptil 4K oppløsning — ikke bare småklipp
- LoRA-støtte — tren dine egne stiler
Og alt dette kan kjøres på din egen maskin. Ingen API-nøkler. Ingen månedlige abonnementer. Ingen «vi har stengt tilgangen fordi du genererte noe vi ikke likte».
Full vs Distilled — valget er ditt
Lightricks har sluppet flere varianter av modellen. Den fulle versjonen gir best kvalitet, men krever en del VRAM. Har du en RTX 4090 med 24 GB? Da kjører du den fulle modellen uten problemer.
Men her kommer det smarte: De har også sluppet distillerte og kvantiserte varianter som reduserer minnekravene betydelig. Du trenger ikke nødvendigvis toppmaskinvare for å komme i gang. Har du et rimelig moderne Nvidia-kort, kan du teste dette selv.
Jeg har selv testet LTX-2 på min egen RTX 4090, og kan bekrefte at det faktisk fungerer. Ikke bare som en teknisk demo, men som et verktøy du faktisk kan bruke til å lage ting.
ComfyUI-integrasjon fra dag én
En av tingene som ofte stopper folk fra å bruke nye AI-modeller er oppsettet. «Installer disse 47 avhengighetene, kompiler dette biblioteket, og be til at CUDA-versjonen din stemmer.»
LTX-2 integrerer direkte i ComfyUI med ferdiglagde workflows tilgjengelig ved lansering. Last ned vektene, dra dem inn i ComfyUI, og du er i gang. Lightricks har til og med laget en egen ComfyUI-repo med alt du trenger.
Hvorfor dette er viktig
Vi lever i en tid der de store AI-selskapene stadig strammer grepet. Modeller som var åpne blir lukket. API-priser øker. Bruksvilkår blir strengere. Og plutselig er du avhengig av et selskap som kan endre spillereglene når som helst.
LTX-2 representerer det motsatte. Full åpenhet. Full kontroll. Du eier modellen på maskinen din. Du kan trene den videre. Du kan tilpasse den. Og ingen kan ta den fra deg.
For meg som klassisk liberalist er dette musikk i ørene. Markedet — ikke byråkrater eller storselskaper — bestemmer hva du kan lage. Det er slik det burde være.
Er dette fremtiden for AI-video?
Jeg tror vi ser begynnelsen på noe stort her. Når open source-alternativene blir gode nok til praktisk bruk, mister de lukkede plattformene mye av sin makt. LTX-2 er kanskje ikke helt på nivå med de beste kommersielle løsningene ennå — men gapet krymper raskt.
Og viktigere: Med full tilgang til treningskoden vil fellesskapet kunne forbedre denne modellen på måter Lightricks aldri kunne gjort alene. Det er kraften i ekte open source.
Så ja, jeg kaller LTX-2 kongen av open source video-AI. Ikke fordi den nødvendigvis lager de peneste videoene akkurat nå, men fordi den viser hvordan det burde gjøres. Åpent. Tilgjengelig. Fritt.
Og det er ganske kult at jeg kan lage videoer av meg selv som action-helt på min egen PC, uten å spørre noen om lov.