Alt jeg har skrevet om
AI-Nyheter
251 innlegg
AI-verdenen beveger seg fort, og jeg prøver å holde deg oppdatert på det som faktisk betyr noe. Ikke alt som skjer er viktig – men når noe stort lander, enten det er en ny modell, et oppkjøp eller en teknologisk milepæl, får du min take på det her. Over 100 artikler og det stopper ikke.
Atlas inference engine – open source Rust og CUDA slår vLLM med 131 tokens per sekund
Atlas inference engine er nå open source – en LLM-inferensmotor skrevet i ren Rust og CUDA uten Python eller PyTorch. Oppnår 131 tokens per sekund på Qwen3.5-35B, raskere enn NVIDIAs vLLM på identisk GB10-maskinvare.
LARQL – kjør Gemma 4 26B på to billige maskiner med decoupled attention
LARQL er et open source Rust-prosjekt som lar deg kjøre Gemma 4 26B spredt over to billige maskiner ved å koble attention-mekanismen fra modellvektene. Distribuert lokal AI-inferens uten dyr GPU-rigg – her er hva det betyr i praksis.
Uber brukte hele AI-budsjettet for 2026 på Claude Code – på fire måneder
Uber introduserte Claude Code for ingeniørteamet i desember 2025. Innen april 2026 var hele AI-budsjettet for året borte. 95 prosent av ingeniørene bruker AI-verktøy månedlig, og 70 prosent av koden stammer fra AI. Her er hva som skjedde – og hva det betyr for andre selskaper.
Flare-TTS 28M – open source stemmemodell trent fra bunnen av på 24 timer
Flare-TTS 28M er en open source text-to-speech-modell med 28 millioner parametere, trent fra bunnen av på én NVIDIA A6000 GPU på 24 timer. Her er hva modellen kan, hvordan du kjører den lokalt, og hva det sier om open source AI i 2026.