GuppyLM er en liten språkmodell på 8,7 millioner parametere, bygget fra bunnen av i PyTorch på rundt 130 linjer kode. Den ble publisert av utvikleren Arman på GitHub og trender akkurat nå på Hacker News med over 150 poeng. Modellen er trent på 60 000 syntetiske samtaler, kjører på en gratis Google Colab T4-GPU på fem minutter, og snakker som en filosofisk gullfisk som mener meningen med livet er mat.

Det høres latterlig ut. Det er også genialiteten bak det. Å trene en LLM som faktisk fungerer – som produserer sammenhengende tekst, svarer på spørsmål, har en personlighet – er ikke lenger noe som krever milliarder av parametere og datasentre. Det krever en ettermiddag og en gratis GPU.

Jeg synes dette er en av de mer underholdende tilnærmingene til AI-pedagogikk jeg har sett på en stund. Ikke fordi gullfisken er nyttig – det er den definitivt ikke – men fordi den avmystifiserer noe folk fortsatt tror er magi.

Hva er egentlig GuppyLM?

GuppyLM er en vanilla transformer-modell. Ingen fancy optimaliseringer som GQA (grouped-query attention) eller RoPE (rotational positional encodings) – bare standard transformer-arkitektur fra Attention Is All You Need-papiret fra 2017. Det er poenget.

Tallene ser slik ut:

  • 8,7 millioner parametere totalt
  • 6 transformer-lag
  • 384 skjult dimensjon
  • 6 attention heads
  • 4 096 tokens vokabular (BPE-tokenisering)
  • Maks 128 tokens sekvens

Til sammenligning har GPT-3 175 milliarder parametere. GuppyLM er altså omtrent 20 000 ganger mindre. Og den fungerer likevel – innenfor sitt smale domene.

Treningsdataen er 60 000 syntetiske samtaler spredt over 60 emner, fra enkle hilsener til filosofiske spørsmål. Alt generert via template composition med tilfeldiggjorte komponenter. Ikke noe scraping av internett, ikke noe komplisert datarensing. Bare strukturert syntetisk data som lærte en liten modell å opptre som en fisk med sterke meninger om pellets.

Teknisk diagram over vanilla transformer-arkitektur med embedding-lag, 6 attention heads og feed-forward lag visualisert som lysende kretser
Slik ser transformer-arkitekturen til GuppyLM ut: 6 lag, 6 attention heads, 384 skjult dimensjon og 4 096 tokens vokabular.

Hvorfor er dette nyttig å forstå?

Jeg har skrevet om hvordan språkmodeller fungerer tidligere, men det er én ting å lese en forklaring – og noe helt annet å se koden som faktisk gjør det. GuppyLM er 130 linjer PyTorch. Du kan lese hele modellen på én skjerm.

Det er ikke abstrakt lenger. Du ser attention-mekanismen. Du ser embedding-laget. Du ser hvordan tokens flyter gjennom lag etter lag. Og så ser du outputen – en fisk som sier «vann er livet og mat er meningen» – og du skjønner at ChatGPT gjør akkurat det samme, bare med 175 milliarder parametere i stedet for 8,7 millioner.

Dette er faktisk ett av de bedre pedagogiske verktøyene jeg har sett for folk som vil forstå hva begreper som transformer, token, og attention egentlig betyr i praksis.

Kan du kjøre det selv?

Ja, og det er overraskende enkelt. Tre alternativer:

Direkte i nettleseren: Det finnes en forhåndstrent modell på Hugging Face. Ingen installasjon nødvendig, bare chat med fisken umiddelbart.

Lokalt: pip install torch tokenizers og deretter python -m guppylm chat. Det er det. Fungerer på en vanlig laptop uten GPU.

Tren din egen: Her er den morsomme delen. GitHub-repositoriet inkluderer en Google Colab-notatbok som kjører hele treningspipelinen på en gratis T4-GPU på omtrent fem minutter. Du kan bytte ut personligheten – fisken kan bli en robot, en viking, en pessimistisk katt. Datasettet genereres automatisk basert på malen du definerer.

Google Colab-notatbok med PyTorch-treningskode som viser tap som synker raskt mot null på en gratis T4-GPU
Hele treningspipelinen kjører på en gratis Google Colab T4-GPU og er ferdig på omtrent fem minutter.

Hva lærer du av å bygge dette?

Arman skriver at målet hans var å demystifisere hvordan språkmodeller faktisk fungerer. Det er et godt mål. De fleste snakker om LLM-er som en slags svart boks – noe som skjer inne i datasentrene til OpenAI og Anthropic og som ingen kan forstå uten et PhD-studium.

Det stemmer ikke. Grunnprinsippene er tilgjengelige. Transformer-arkitekturen ble publisert åpent i 2017. PyTorch er gratis. Google Colab gir deg en GPU uten å betale en krone. Det som mangler er et lite, håndterbart eksempel som viser hele flyten – fra rådata til fungerende inferens – uten at du drukner i kompleksitet.

GuppyLM er det eksemplet. Du forstår ikke alt om GPT-4o ved å trene en 9 millioner parametere stor gullfiskmodell. Men du forstår nok til at det ikke lenger er magi. Det er matrisemultiplikasjon, attention-vekter og litt statistikk. Og det er faktisk ganske tilfredsstillende å se det fungere.

For de som vil grave dypere: VL-JEPA-artikkelen tar opp et interessant alternativ til transformer-paradigmet – Metas tilnærming som tenker i konsepter i stedet for tokens. Men for å forstå hva man avviker fra, er det lurt å kjenne til originalen. GuppyLM er en god start.

Fisken lever på Hugging Face og er klar for filosofiske diskusjoner om mat. Fork den og gi den en ny personlighet.

Legg igjen en kommentar

Din e-postadresse vil ikke bli publisert. Obligatoriske felt er merket med *

Meld deg på nyhetsbrevet

Få oppdateringer om AI nyhetene rett i inboxen!

Du liker kanskje denne også
Jan Sverre med headphones og lydmikser i boardroom-møte med forvirrede executives

Suno AI Copyright 2026 – Opphavsrett og Rettigheter for AI-Musikk

Kan du tjene penger på Suno-musikk? Her er en praktisk gjennomgang av rettigheter, risiko og hva du bør avklare før publisering.
Jan Sverre tester GPT-5.2 ved en transparent OpenAI GPT-skjerm

GPT-5.2: Jeg testet OpenAIs nyeste modell – her er hva som faktisk fungerer

GPT-5.2 er ute med tre versjoner. Jeg har testet thinking-modellen, sammenlignet med 5.1, og funnet ut hva som faktisk er bedre. Her er mine erfaringer.
Jan Sverre profesjonelt fotograf-kvalitet portrett AI-generert bildegenerering

Google NotebookLM

Google NotebookLM er en AI-assistent som gjør dokumenter om til interaktive samtaler, studieguidere og podcasts på norsk. Nå drevet av Gemini 3 Pro med nye funksjoner som infographics, slide decks og Deep Research. Komplett guide til gratis vs. Plus-versjon.
Jan Sverre Bauge sitter foran dataskjermer med AI-agent dashboards og meldingsapper i full aktivitet

Hva Er ClawdBot? Open-Source AI-Agent med Sikkerhetsproblemer

Clawdbot er open-source AI-agenten alle snakker om. Slik kommer du i gang – og slik sikrer du deg mot alvorlige sårbarheter.