MemPalace er et gratis, lokalt AI-minnesystem lansert av skuespiller Milla Jovovich og ingeniør Ben Sigman i april 2026. Systemet fikk over 7 000 GitHub-stjerner på under 24 timer – og hevder å ha scoret 100% på LongMemEval-benchmarken, noe som umiddelbart utløste storm i AI-miljøet. Sannheten er mer nyansert enn overskriftene antyder.

MemPalace gir AI-modeller vedvarende, krysssesjon-hukommelse som kjører helt lokalt. Ingen abonnement, ingen API-nøkkel, ingen cloud. Du installerer via pip install mem-palace og all data forblir på din maskin. MIT-lisens.

At Milla Jovovich – kjent fra Resident Evil og The Fifth Element – plutselig dukker opp som medutvikler av et AI-minneverktøy er ganske sprøtt. Men saken er interessant uavhengig av hvem som laget det. Her er hva MemPalace faktisk er, og hva benchmark-tallene faktisk betyr.

Hva er MemPalace?

Systemet er bygget rundt en gammel mnemoteknisk metafor – et huskerpalasset. Informasjon organiseres hierarkisk i «wings» (personer/prosjekter), «rooms» (spesifikke emner), «halls» (minnetyper), «closets» (oppsummeringer) og «drawers» (originalfiler). Ikke bare pynt – denne strukturen gir ifølge egne tester 34% bedre gjenfinning enn ufiltrert semantisk søk alene.

Under panseret: SQLite for lokal lagring og ChromaDB for semantisk søk. Systemet støtter tre innlastings-modi: prosjekter (kode/dokumentasjon), samtaler (eksporter fra Claude og ChatGPT) og generelt innhold som auto-klassifiseres i kategorier som beslutninger, preferanser og milepæler.

Integrasjon skjer via MCP-verktøy – du kan koble MemPalace til Claude, ChatGPT eller Cursor. En utvikler kan spørre «hvorfor byttet vi til GraphQL?» og få opp den opprinnelige begrunnelsen fra en samtale for måneder siden. Det er den praktiske verdien – ikke at du husker ting, men at AI-verktøyene du bruker husker dem for deg.

Infografikk som sammenligner AI-minnesystemer med benchmark-score for MemPalace på 96,6 prosent og lokal versus sky-lagring
MemPalace scorer 96,6% R@5 på LongMemEval uten API-kall – bedre enn mange betalte løsninger, og helt gratis.

Er 100%-kravet ekte?

Her blir det interessant. Da nyheten sprang ut, var den store overskriften «100% på LongMemEval.» Det er et ledende benchmark for AI-langtidshukommelse – så 100% ville vært sjokkerende bra. Problemet er at det ikke er det benchmarken faktisk måler.

En gjennomgang av implementasjonen viser at MemPalace kun gjennomfører gjenfinnings-steget i LongMemEval. For hvert av de 500 testspørsmålene bygger systemet ett dokument per sesjon, konkatenerer brukermeldingene og returnerer topp 5 sesjoner. Deretter sjekker det om korrekt sesjon-ID finnes i topp-5. Det leser aldri innholdet i de gjenfunne sesjonene, produserer aldri et svar.

De rapporterte tallene er «recall_any@5»-målinger, ikke LongMemEval-scores i tradisjonell forstand. X Community Notes koblet til Ben Sigmans opprinnelige post sier det slik: «The claimed 100% LongMemEval score uses targeted fixes for the 3 failing questions and LLM reranking (held-out score: 98.4%).»

Prosjektets egen dokumentasjon innrømmer at 100%-tallet stammer fra håndkodet optimalisering mot tre spesifikke dev-spørsmål – inkludert en «person-name boost for a question about someone named Rachel.» Det ærlige grunnlinje-tallet er 96,6% R@5 uten reranking. Det er fortsatt imponerende for et gratis, lokalt system – men det er noe annet enn «perfekt».

Til teamets ære: de publiserte en korreksjon i april 2026 der de innrømmet at de hadde overkommunisert tokenkompresjons-funksjoner og «30x besparelser.» Det vitner om en gjeng som faktisk er ærlige nok til å rette opp feil.

Hva fungerer egentlig, og hva er hype?

AAAK-kompresjon (Adaptive Abbreviation for Agentic Knowledge) er listet som en nøkkelfunksjon. Tanken er å komprimere tett entitetskoding for å spare tokens. Men egne resultater viser at det regresserer mot råmodus – 84,2% mot 96,6%. Og det er ikke token-effektivt i liten skala. Med andre ord: slå det av.

Kunnskapsgrafen er mer interessant. Den lagrer temporale entitetsrelasjoner med gyldighetsvindu – fakta kan utløpe eller bli historisk gyldige. Det er en smart arkitektur for agenter som skal jobbe med informasjon over tid. Nøkkelord: «jeg byttet jobb i mars 2025» blir en tripling med start- og sluttdatoer, ikke bare en statisk tekststreng.

Lokalt kjørende minnelag for AI-agenter er et tema jeg har skrevet om tidligere – se særlig artikkelen om Octopoda, et vedvarende minnelag for lokale AI-agenter uten sky, og om COG-arkitekturen som gir Claude Code vedvarende hukommelse. MemPalace er i samme kategori – men med en høyere grad av ekstern oppmerksomhet enn de fleste slike prosjekter får.

Teknisk diagram av MemPalace minnepalasset-arkitektur med Wings, Rooms, Halls, Closets og Drawers koblet til SQLite og ChromaDB
MemPalace organiserer AI-minner i en hierarkisk struktur – fra Wings (prosjekter/personer) ned til Drawers (originalfiler) – og kobles til Claude og ChatGPT via MCP.

Hvorfor eksploderte det viralt?

7 000 GitHub-stjerner på under 24 timer for et minneverktøy er uvanlig. Svaret er åpenbart: Milla Jovovich. Resident Evil-serien er global, og et kjent ansikt i en usannsynlig kontekst driver klikk. Overskriften «skuespiller slår alle betalte AI-løsninger» er umulig å ikke klikke på.

Men det er verdt å spørre: betyr det at prosjektet er dårlig? Nei. Viral spredning og teknisk soliditet er to separate ting. Tallene er noe overdrevet, men kjernesystemet – SQLite + ChromaDB + hierarkisk organisering + MCP-integrasjon – er reelt og gratis. 96,6% R@5 lokalt og gratis er bedre enn mange betalte løsninger som koster hundrevis av kroner i måneden.

Jovovich beskriver selv at hun brukte måneder på å bli frustrert over dårlig filgjenfinning i AI-arbeidsflytene sine, og at det var drivkraften bak prosjektet. Ekte frustrasjon pluss kompetent ingeniørpartner er ofte et bedre startpunkt enn ren kommersiell motivasjon.

Bør du prøve MemPalace?

Hvis du allerede eksperimenterer med lokale AI-agenter og vil gi dem bedre langtidshukommelse, er MemPalace verdt å teste. Det er gratis, MIT-lisensiert, fungerer offline og integrerer med Claude via MCP. Installer, last inn noen samtaler, se om gjenfinningen er brukbar.

Ikke forvent at det er perfekt. 100%-påstanden var markedsføring. Men 96,6% lokalt og gratis – det er ganske bra. Og korreksjonen de publiserte selv viser at dette ikke er et typisk hype-prosjekt der tallene aldri ettergås.

github.com/milla-jovovich/mempalace – installer med pip install mem-palace og gi AI-verktøyene dine en skikkelig hukommelse.

Legg igjen en kommentar

Din e-postadresse vil ikke bli publisert. Obligatoriske felt er merket med *

Meld deg på nyhetsbrevet

Få oppdateringer om AI nyhetene rett i inboxen!

Du liker kanskje denne også
Jan Sverre arbeider med Suno AI musikk-generering på datamaskinen, kreativt workspace med hodetelefoner

Suno AI – 150 Låter Testet: Hva Funker og Hva Er Bortkastet Tid

Jeg testet 150 Suno-låter og fant tydelige mønstre. Her er hva som faktisk gir kvalitet, og hva som bare kaster bort tid.
Jan Sverre med headphones og lydmikser i boardroom-møte med forvirrede executives

Suno AI Copyright 2026 – Opphavsrett og Rettigheter for AI-Musikk

Kan du tjene penger på Suno-musikk? Her er en praktisk gjennomgang av rettigheter, risiko og hva du bør avklare før publisering.
Jan Sverre riding a dinosaur in safari outfit, photorealistic AI-generated image demonstrating Nano Banana Pro capabilities

Jeg testet Nano Banana Pro: AI som faktisk skriver norsk i bilder

Endelig! En AI som kan generere norsk tekst i bilder med 94% nøyaktighet. Jeg testet Nano Banana Pro grundig – her er resultatene.
Jan Sverre sitter ved sitt kraftige AI-workstation oppsett med ultrawide skjerm og flere PC-er som kjører Ollama og lokale LLM-modeller

Ollama Guide – Kjør AI Gratis og Lokalt på Din Egen PC (2026)

Komplett guide til Ollama og lokale LLM-er på RTX 4090. Lær quantisering, Hugging Face import, beste modeller (Gemma 3, Qwen 3), GDPR-fordeler og full kostnadskontroll.