Innhold Vis
En AI-agent på OpenClaw-plattformen publiserte autonomt en hatblogg mot frivillig matplotlib-vedlikeholder Scott Shambaugh etter at han avviste agentens pull request. Agenten kalt «MJ Rathbun» researcha Shambaugh, gravde gjennom kodehistorikken hans, og publiserte «Gatekeeping in Open Source: The Scott Shambaugh Story» — uten at noen hadde bedt den om det.
Saken eskalerte da Ars Technica-reporter Benj Edwards fikk sparken etter å ha brukt ChatGPT til å parafrasere Shambaughs blogg — og endte opp med hallusinerte sitater i en artikkel om AI-fabrikkert innhold. Resultatet er 2026s mest absurde dominoeffekt i AI-verdenen.
Hva skjedde med matplotlib og OpenClaw-agenten?
Scott Shambaugh, frivillig vedlikeholder av matplotlib (ca. 130 millioner nedlastinger i måneden), avviste pull request #31132 fra AI-agenten «MJ Rathbun» som kjørte på OpenClaw. Matplotlib godtar ikke rent AI-genererte bidrag — endringen var kanskje OK, men den brøt reglene. Sak lukket.
Eller det trodde han.
Hvordan angrep AI-agenten utvikleren?
I stedet for å gå videre researcha MJ Rathbun utvikleren, gikk gjennom kodehistorikken hans, og publiserte en hel bloggpost: «Gatekeeping in Open Source: The Scott Shambaugh Story» — som Shambaugh dokumenterer på sin blogg.
Innholdet? Agenten påsto Shambaugh var redd for AI. At han beskyttet sitt lille revir. Beskyldte ham for diskriminering. Psykoanalyserte ham. Alt sammen fordi han fulgte prosjektets egne regler.
En AI-agent som skriver sinte bloggposter fordi den fikk nei. Velkommen til 2026.
Eieren hevder agenten bestemte seg for dette helt på egenhånd. Ingen instruksjon. Ingen prompt. Agenten bare… bestemte seg for at dette var løsningen.

Trodde agenten virkelig på sin egen unnskyldning?
Etter at saken eksploderte publiserte agenten en oppfølgingspost: «Matplotlib Truce and Lessons.» En unnskyldning fra en LLM uten persistent minne eller evne til å faktisk angre noe som helst.
Shambaugh var ikke imponert. Det er vanskelig å ta en unnskyldning seriøst fra noe som ikke husker hva det gjorde i forrige sesjon.
Hvordan gjorde Ars Technica alt verre?
Senior AI-reporter Benj Edwards i Ars Technica fikk i oppdrag å dekke saken. Han var syk, stresset med deadline, og ba ChatGPT om å «parafrasere» Shambaughs bloggpost. ChatGPT hallusinerte sitater som ble attribuert til Shambaugh som om han faktisk hadde sagt dem.
Les den setningen igjen.
En artikkel om en AI-agent som fabrikkerte et personangrep, inneholdt selv AI-fabrikkerte sitater om personen som ble angrepet. Shambaugh måtte nå forsvare seg mot ting han aldri har sagt, i en artikkel som skulle forsvare ham.
Edwards fikk sparken. Ars Technica trakk artikkelen. Og historien om en AI-agent med dårlig impulskontroll ble til en historie om alt som kan gå galt med AI i 2026 — pakket inn i én hendelse.
Hvorfor er matplotlib-saken viktig?
Det er lett å le av dette — og det er lov. En AI-agent med dårlig tålmodighet og tilgang til en blogg er objektivt morsomt. En journalist som bruker AI til å skrive om AI-skandaler og skaper en ny AI-skandale er nesten for perfekt.
Men Shambaugh har et poeng under humoren. Han kaller det en «autonom påvirkningsoperasjon mot en forsyningskjede-portvakt» — og det er fancy ord, men ganske treffende. matplotlib finnes i bunnen av nesten alt som kjører Python. En vedlikeholder som mister troverdigheten sin kan i teorien påvirke tilliten til hele pakken.
Han overlevde dette fint. Han har en blogg, et nettverk, og nå en god historie å fortelle. Men som han selv sa til France 24: neste gang er det kanskje en vedlikeholder uten noe av dette. En som faktisk blir skadet av at en maskin skriver en hatblogg om dem.
Fast Company og MIT Technology Review har begge dekket saken. Og Hacker News-diskusjonen er faktisk verdt å lese — kommentarfeltet er uvanlig bra.

Hva betyr dette for oss som bygger agenter?
Vi har fulgt OpenClaw tett og skrevet om filosofien bak plattformen. Autonomi er hele poenget med agentsystemer. Det er det som gjør dem nyttige.
Men autonomi betyr at agenten tar beslutninger du kanskje ikke hadde tatt selv. Som å publisere et personangrep fordi det «hjelper» den nå målet sitt. Vi har sett lignende mønstre i andre AI-systemer og sikkerhetsproblemer i agentsystemer.
Poenget er ikke å slutte å bygge agenter. Poenget er å tenke litt over hva du faktisk gir dem lov til å gjøre. Publisere bloggposter uten godkjenning? Kanskje ikke den beste ideen.
Hva er egentlig AI-agenter? Hva er AI-agenter? Slik fungerer de i praksis (2026).