Siste nytt
LARQL – kjør Gemma 4 26B på to billige maskiner med decoupled attention
LARQL er et open source Rust-prosjekt som lar deg kjøre Gemma 4 26B spredt over to billige maskiner ved å koble attention-mekanismen fra modellvektene. Distribuert lokal AI-inferens uten dyr GPU-rigg – her er hva det betyr i praksis.
LLMSearchIndex – lokal websøk med 203 millioner sider for RAG
LLMSearchIndex er et open source Python-bibliotek som lar deg søke på internett lokalt – uten Brave API, SearXNG eller andre betalte tjenester. Over 203 millioner indekserte sider fra FineWeb og Wikipedia, komprimert til en FAISS-indeks som kjører på vanlig hardware med 6 GB RAM.
torch-nvenc-compress – NVENC-silikon som PCIe-båndbreddemultiplikator
torch-nvenc-compress er et Python-bibliotek som bruker GPUens NVENC-videosilikon til å komprimere aktiveringstensorer og KV-cache på farten, og seksdobler effektiv PCIe-båndbredde fra 30 GB/s til 180 GB/s for multi-GPU LLM-inferens.
Qwen Image og alternativ historie – slik lager du fotorealistiske bilder fra tidslinjer som aldri skjedde
Qwen Image er Alibabas open source AI-modell for bildegenerering og -redigering. Her er hvordan den brukes til å lage fotorealistiske bilder fra alternative historiske tidslinjer – med ComfyUI-oppsett og GGUF-varianter ned til 8 GB VRAM.