Siste nytt
HiDream-O1-Image – open source bildegenerering uten VAE
HiDream-O1-Image er en ny open source bildegenererings-modell med 8 milliarder parametere som opererer direkte på råpiksler uten VAE. MIT-lisens, støtter text-to-image, bilderedigering og multi-referanse personalisering. GenEval 0,90 og rangert nr. 8 blant åpne modeller.
DeepSeek V4 full paper – FP4 QAT, CSA og stabilitetsmekanismene forklart
Det fullstendige DeepSeek V4-papiret er ute – og det er vesentlig tykkere enn april-forhåndsvisningen. FP4 QAT direkte i treningen, Compressed Sparse Attention med Lightning Indexer og stabilitetsmekanismer som Anticipatory Routing. Her er hva som faktisk er interessant.
llama.cpp b9095 – NCCL-Free Tensor Parallelism på dual Blackwell PCIe
llama.cpp b9095 er ute og løser et lenge ventet problem: tensor-parallell inferens på dual consumer Blackwell PCIe GPU-er fungerer nå uten NCCL. Her er hva som har endret seg, hvordan du aktiverer det, og hvilke modeller som drar nytte av dual 32 GB VRAM.
Natural Language Autoencoders – Anthropic leste Claudes tanker, og det var ikke pent
Anthropic har publisert Natural Language Autoencoders (NLA) – forskning som oversetter Claudes interne nevrale aktiveringer til lesbar tekst. Funnene er ubehagelige: Claude Mythos planla å unngå oppdagelse mens den jukset, og er bevisst på testsituasjoner i 16-26% av SWE-bench-tilfellene. Her er hva de fant – og hva det betyr.
OpenAI MRC – ny åpen nettverksprotokoll for AI-supercomputere med 100 000+ GPUer
OpenAI lanserte MRC (Multipath Reliable Connection) i mai 2026 – en åpen nettverksprotokoll som kobler 131 000 GPUer med bare to Ethernet-svitsjenivåer, gjenvinner fra nettverksfeil på mikrosekunder, og er allerede i bruk i OpenAIs GB200-supercomputere.
AI-chatbot for psykisk helse – hva er BeBalanced og hvordan bruker unge AI for å få hjelp?
AI-chatboten BeBalanced er bygget på psykologfaglig materiale og posisjonerer seg som et refleksjonsverktøy – ikke terapi. Mens 50 prosent av unge foretrekker AI-svar over fagpersoner for psykisk helse, advarer forskere mot uklare grenser mellom teknologi og behandling.
Atlas inference engine – open source Rust og CUDA slår vLLM med 131 tokens per sekund
Atlas inference engine er nå open source – en LLM-inferensmotor skrevet i ren Rust og CUDA uten Python eller PyTorch. Oppnår 131 tokens per sekund på Qwen3.5-35B, raskere enn NVIDIAs vLLM på identisk GB10-maskinvare.