Siste nytt
torch-nvenc-compress – NVENC-silikon som PCIe-båndbreddemultiplikator
torch-nvenc-compress er et Python-bibliotek som bruker GPUens NVENC-videosilikon til å komprimere aktiveringstensorer og KV-cache på farten, og seksdobler effektiv PCIe-båndbredde fra 30 GB/s til 180 GB/s for multi-GPU LLM-inferens.
Qwen Image og alternativ historie – slik lager du fotorealistiske bilder fra tidslinjer som aldri skjedde
Qwen Image er Alibabas open source AI-modell for bildegenerering og -redigering. Her er hvordan den brukes til å lage fotorealistiske bilder fra alternative historiske tidslinjer – med ComfyUI-oppsett og GGUF-varianter ned til 8 GB VRAM.
Qwen 3 VL vs Gemma 4 – hvem vinner egentlig på vision-oppgaver?
Offisielle benchmarks peker mot Qwen 3 VL 32B som vinner over Gemma 4 31B på vision-oppgaver. Men side-om-side-testing med vLLM og FP8 lokalt avslører et annet bilde: Gemma 4 vinner i praksis. Her er hva benchmaxing faktisk betyr for deg som vil kjøre vision-AI lokalt.
Uber brukte hele AI-budsjettet for 2026 på Claude Code – på fire måneder
Uber introduserte Claude Code for ingeniørteamet i desember 2025. Innen april 2026 var hele AI-budsjettet for året borte. 95 prosent av ingeniørene bruker AI-verktøy månedlig, og 70 prosent av koden stammer fra AI. Her er hva som skjedde – og hva det betyr for andre selskaper.
Flare-TTS 28M – open source stemmemodell trent fra bunnen av på 24 timer
Flare-TTS 28M er en open source text-to-speech-modell med 28 millioner parametere, trent fra bunnen av på én NVIDIA A6000 GPU på 24 timer. Her er hva modellen kan, hvordan du kjører den lokalt, og hva det sier om open source AI i 2026.