Poolside AI lanserte 28. april 2026 sine to første offentlige modeller: Laguna M.1 og Laguna XS.2. Begge er bygget spesielt for agentic coding – altså AI som koder autonomt over lange sesjoner med mange verktøykall. XS.2 er open-weight med Apache 2.0-lisens og kjører lokalt på én GPU. M.1 er den tyngre varianten, beregnet på krevende kodeoppdrag. Begge er gratis å bruke via API og OpenRouter i en begrenset periode.

Poolside er et AI-laboratorium med rundt 60 ansatte som har brukt de siste to årene på å bygge alt selv – treningsdata, reinforcement learning-systemer og inferensinfrastruktur. Nå er første modell ute av ovnen. Det er første gangen de slipper noe til offentligheten, og de gjør det med to modeller på én gang.

Hva gjør disse modellene interessante? Ganske enkelt: de er skreddersydd for akkurat det som er vanskelig med AI-koding i dag – lange, komplekse oppgaver der modellen må holde tungen rett i munnen gjennom hundrevis av verktøykall. Det er ikke lett å bygge, og de fleste generalistmodeller sliter der. Poolside har valgt å spesialisere seg heller enn å prøve å vinne alt.

Hva er Laguna M.1 og Laguna XS.2?

Begge modellene bruker Mixture-of-Experts (MoE) arkitektur, som betyr at bare en del av parameterne aktiveres per inferens. Det gir lavere beregningskost enn en tett modell av samme størrelse.

Laguna M.1 har 225 milliarder totale parametere, men bare 23 milliarder er aktive om gangen. Den ble trent på 30 billioner tokens ved hjelp av 6 144 NVIDIA Hopper GPU-er fra bunnen av. Benchmarkresultater: 46,9% på SWE-bench Pro og 40,7% på Terminal-Bench 2.0. Det er sterke tall for en spesialisert kodingsmodell, og sammenlignbare med de beste generalistmodellene på disse målene.

Laguna XS.2 er mye mindre – 33 milliarder totale parametere, 3 milliarder aktive. Den ble trent på 30 billioner tokens på fem uker, og er nå tilgjengelig som åpne vekter på Hugging Face under Apache 2.0-lisens. Det betyr at du kan laste ned, kjøre, fine-tune og bruke den kommersielt – uten å be om lov. XS.2 scorer 44,5% på SWE-bench Pro og 30,1% på Terminal-Bench 2.0. For en modell av denne størrelsen er det ganske imponerende.

Infografikk som sammenligner Laguna M.1 og Laguna XS.2 sine spesifikasjoner og SWE-bench Pro resultater
Laguna M.1 (225B/23B aktive) scorer 46,9% på SWE-bench Pro. Laguna XS.2 (33B/3B aktive) følger tett med 44,5% – overraskende lite gap mellom liten og stor modell.

Hvordan kjører du Laguna XS.2 lokalt?

Laguna XS.2 kan kjøres lokalt via Ollama, noe som gjør den tilgjengelig for alle med en anstendig GPU. For en 3B aktiv-parametermodell er kravene overkommelige – langt lavere enn de fleste 70B-modeller som folk kjører i dag.

Du kan også bruke den gratis via OpenRouter API akkurat nå. Poolside har partnerskaper med Hugging Face, OpenRouter, Baseten og Ollama for distribusjon. De har i tillegg lansert sitt eget agentverktøy kalt pool og et nettleserbasert utviklingsmiljø kalt Shimmer. Pool er et agent-harness som er designet rundt modellenes styrker – lange, autonome kodingssessjoner.

For de som vil bruke M.1 og trenger høyere rate limits, kan man kontakte models@poolside.ai direkte. Gratisfasen er ikke evig, men det er en god mulighet til å teste.

Vil du lese mer om open source AI-modeller generelt og hva du kan kjøre lokalt i dag? Sjekk Open source AI – komplett guide (2026).

Hva er Mixture-of-Experts og hvorfor spiller det en rolle?

MoE er ikke nytt, men Poolside har tatt det et steg videre med det de kaller «automixing» og egenutviklede syntetiske treningsdata. Laguna XS.2 har omtrent 13% syntetiske data i treningssettingen – det er en måte å fylle hull i treningsdataene og lære modellen spesifikke atferdsmønstre som ikke finnes naturlig i eksisterende kode-databaser.

De bruker også en optimisator kalt Muon i sin distribuerte implementering. De hevder den oppnår samme treningsloss som standard AdamW på 15% færre steg. Det er en meningsfull effektivitetsgevinst i skala – lavere regningstid, og dermed lavere treningskostnader.

For reinforcement learning etter pre-training bruker de en asynkron on-policy tilnærming bygget på CISPO-algoritmen. Tanken er at modellen skal lære å kode agentic – altså klare lange oppgaver med mange verktøykall uten å miste tråden. Det er akkurat det som er vanskelig med generalistmodeller på kodingsbenchmarks.

Abstrakt illustrasjon av agentic AI som arbeider gjennom en lang kjede av kodingsoppgaver via tilkoblede noder
Agentic coding betyr at AI-modellen arbeider autonomt gjennom lange sesjoner med hundrevis av verktøykall – det er akkurat dette Poolside har optimalisert Laguna for.

Hvem er Poolside AI?

Poolside ble grunnlagt med det eksplisitte målet om å bygge agentic coding-modeller ved å eie hele stacken – treningsdata, treningsprosessen, reinforcement learning og inferens. De har rundt 60 ansatte i Applied Research-organisasjonen. Selskapet er amerikanskeid og henvender seg tydelig til enterprises som vil ha kodeagenter de kan stole på.

Det er viktig kontekst: dette er ikke et selskap som har tatt en generalistmodell og fine-tunet den på kode. De har trent fra bunnen, med alt fokus på én nisje. Det ligner mer på det Mistral gjorde med hastebyggingen av småmodeller – sterk spesialisering fremfor bredde.

Jason Warner, CEO i Poolside, skriver på X at de «tror at for å bygge virkelig kapable kodingsagenter må man eie hele stacken». Det er en klar filosofi som skiller dem fra de fleste konkurrentene, der man setter en eksisterende grunnmodell inn i en agentic pipeline.

For den som vil lese mer om AMD og lokal agentic AI som alternativ, er GAIA – AMDs open-source rammeverk for lokale AI-agenter relevant lesning.

Hvordan sammenligner Laguna seg med andre kodingsmodeller?

SWE-bench Pro er den hardeste og mest manipulasjonssikre kode-benchmarken akkurat nå – den bruker nyere GitHub-PR-er som modellene ikke kan ha sett under trening. 46,9% for M.1 og 44,5% for XS.2 er begge sterke tall.

Til sammenligning ligger de beste generalistmodellene som Claude Sonnet og Qwen i tilsvarende range på SWE-bench Pro. At Laguna XS.2 – en 33B MoE-modell – kommer nær M.1 på denne benchmarken er det mest overraskende med lanseringen. Normalt er det stort gap mellom en liten og stor modell. Her er gapet langt mindre enn forventet.

Det er selvsagt én benchmark, og benchmarks er ikke hele sannheten. Men SWE-bench Pro er laget for å ikke la seg juske med, og resultatene virker konsistente med den arkitektoniske tilnærmingen Poolside beskriver. Linux-kernelprosjektet har allerede satt klare regler for AI-assistert koding – modeller som Laguna er akkurat hva disse reglene forsøker å regulere bruken av.

Vil du ha en bredere oversikt over AI-kodingsverktøy og terminalbaserte AI-løsninger? Gemini CLI Extensions er en god referanse for å forstå hva som fins i dette landskapet.

Er dette verdt å teste nå?

Ja – spesielt XS.2. Apache 2.0-lisens betyr at du kan bruke den til hva du vil, inkludert kommersielle prosjekter. Gratis via OpenRouter akkurat nå. Kjørbar lokalt via Ollama. Det er lav terskel for å prøve.

M.1 er mer for de som driver med tyngre agentisk utvikling og vil ha en modell som er bygget spesifikt for lange, komplekse kodingsoppdrag. At den er gratis i en begrenset periode via API gjør det mulig å teste uten binding.

Er XS.2 bedre enn Claude Sonnet eller GPT-4o på koding? Ikke nødvendigvis over hele linja – generalistmodeller er fortsatt veldig sterke. Men for spesifikke agentic coding-oppgaver, særlig de som krever mange autonome steg, er Poolside sin spesialisering en ekte fordel.

Det er sjelden vi ser et nytt laboratorium slippe sine første modeller og umiddelbart nå toppen av coding-benchmarks. Poolside har brukt to år på å bygge fundamentet. Nå er det klart for å se om det holder i produksjon. Du finner alt på Poolside sin offisielle blogg.

Legg igjen en kommentar

Din e-postadresse vil ikke bli publisert. Obligatoriske felt er merket med *

Meld deg på nyhetsbrevet

Få oppdateringer om AI nyhetene rett i inboxen!

Du liker kanskje denne også
Jan Sverre med headphones og lydmikser i boardroom-møte med forvirrede executives

Suno AI Copyright 2026 – Opphavsrett og Rettigheter for AI-Musikk

Kan du tjene penger på Suno-musikk? Her er en praktisk gjennomgang av rettigheter, risiko og hva du bør avklare før publisering.
Jan Sverre tester GPT-5.2 ved en transparent OpenAI GPT-skjerm

GPT-5.2: Jeg testet OpenAIs nyeste modell – her er hva som faktisk fungerer

GPT-5.2 er ute med tre versjoner. Jeg har testet thinking-modellen, sammenlignet med 5.1, og funnet ut hva som faktisk er bedre. Her er mine erfaringer.
Jan Sverre profesjonelt fotograf-kvalitet portrett AI-generert bildegenerering

Google NotebookLM

Google NotebookLM er en AI-assistent som gjør dokumenter om til interaktive samtaler, studieguidere og podcasts på norsk. Nå drevet av Gemini 3 Pro med nye funksjoner som infographics, slide decks og Deep Research. Komplett guide til gratis vs. Plus-versjon.
Jan Sverre styrer et digitalt kontrollpanel omgitt av Claude AI-symboler og glødende lysstriper i et mørkt rom

Claude AI – pris, funksjoner og norsk guide (2026)

Alt om Claude AI i 2026 – priser i norske kroner, Claude Pro vs Max, Claude Code, og ærlig sammenligning med ChatGPT. Komplett norsk guide fra en som bruker Claude daglig.