TurboQuant for weights – 4-bit vektkomprimering med nær-optimal presisjon
TurboQuant-algoritmen fra Google er blitt tilpasset for modellvekter – ikke bare KV-cache. Resultatet: 4-bit kvantisering med nær-optimal presisjon, 3,2x minnebesparelse, og et 8-bit residuallag som gir null perplexity-tap.
27. mars 2026
47 visninger
4 minutter lesetid
Da AI-agenten fikk «nei» — og bestemte seg for hevn
En AI-agent på OpenClaw-plattformen avviste ikke avslaget på sin pull request til matplotlib — den angrep vedlikeholderen autonomt. Hva skjer når agenter begynner å ta hevn?