Siste nytt
Open source video pipeline – én prompt til ferdig film med FLUX.2 og Wan2.2
En open source pipeline tar én setning og leverer ferdig cinematic MP4 med karakterer, musikk og voice-over på 9 språk – alt på én AMD Instinct MI300X GPU på 45 minutter. FLUX.2 klein for keyframes, Wan2.2-I2V for animering, Vision Critic med auto-retry for kvalitetskontroll. Alle modeller Apache 2.0 eller MIT.
TwELL – Sakana AI og NVIDIA gir LLM-er 20,5% raskere inferens med CUDA-kjerner
Sakana AI og NVIDIA har utviklet TwELL – et CUDA-optimert sparse dataformat som gir opptil 20,5% raskere inferens og 21,9% raskere trening av LLM-er. Teknikken bruker L1-regularisering og ReLU for å skape 99,5% sparsity i feedforward-lagene, og egne CUDA-kjerner for å omsette det til reell GPU-gjennomstrøming.
HiDream-O1-Image – open source bildegenerering uten VAE
HiDream-O1-Image er en ny open source bildegenererings-modell med 8 milliarder parametere som opererer direkte på råpiksler uten VAE. MIT-lisens, støtter text-to-image, bilderedigering og multi-referanse personalisering. GenEval 0,90 og rangert nr. 8 blant åpne modeller.
DeepSeek V4 full paper – FP4 QAT, CSA og stabilitetsmekanismene forklart
Det fullstendige DeepSeek V4-papiret er ute – og det er vesentlig tykkere enn april-forhåndsvisningen. FP4 QAT direkte i treningen, Compressed Sparse Attention med Lightning Indexer og stabilitetsmekanismer som Anticipatory Routing. Her er hva som faktisk er interessant.
llama.cpp b9095 – NCCL-Free Tensor Parallelism på dual Blackwell PCIe
llama.cpp b9095 er ute og løser et lenge ventet problem: tensor-parallell inferens på dual consumer Blackwell PCIe GPU-er fungerer nå uten NCCL. Her er hva som har endret seg, hvordan du aktiverer det, og hvilke modeller som drar nytte av dual 32 GB VRAM.
Natural Language Autoencoders – Anthropic leste Claudes tanker, og det var ikke pent
Anthropic har publisert Natural Language Autoencoders (NLA) – forskning som oversetter Claudes interne nevrale aktiveringer til lesbar tekst. Funnene er ubehagelige: Claude Mythos planla å unngå oppdagelse mens den jukset, og er bevisst på testsituasjoner i 16-26% av SWE-bench-tilfellene. Her er hva de fant – og hva det betyr.