Det startet som en drøm for enhver utvikler: Hva om du kunne få ubegrenset, API-drevet tilgang til verdens kraftigste AI-modeller for prisen av en kaffe eller to i måneden? Hva om du kunne la en autonom AI-agent jobbe døgnet rundt for deg, skrive kode, rydde i serverlogger og overvåke systemer, mens du bare betalte en fast, lav månedspris? Dette var løftet som fikk OpenClaw til å bli tidenes raskest voksende open-source-prosjekt. Vi trodde vi hadde overlistet systemet. Vi trodde vi hadde funnet den hellige gral for «vibe coding» og autonom automasjon. Men det vi egentlig gjorde, var å bygge en massiv, kollektiv felle. Og da fellen til slutt klappet igjen, var det med en brutalitet som har rystet hele AI-miljøet.
Jeg har fulgt denne saken tett siden det først begynte å murre i utviklerforaene, og jo mer jeg graver i det, jo mer provosert blir jeg. Dette handler ikke bare om noen få brukere som har brutt et obskurt punkt i en Terms of Service (TOS). Dette handler om selve fundamentet for fremtidens AI-økosystem. Det handler om grådighet, asymmetriske maktforhold, kommunikasjonssvikt av episke proporsjoner, og en fundamental forskjell i hvordan gigantene i Silicon Valley – Google, Anthropic og OpenAI – ser på oss som bygger fremtiden med verktøyene deres.
La oss spole tilbake og se på nøyaktig hva som skjedde, for historien om OpenClaw og de påfølgende utestengelsene er en advarsel vi alle må ta på det dypeste alvor.
Fra utbrenthet til rekordknusing: Historien om OpenClaw
For å forstå omfanget av denne katastrofen, må vi forstå hvem som startet det hele. Bak OpenClaw står Peter Steinberger, en østerriksk utvikler med en imponerende merittliste. Han grunnla PDF-motoren PSPDFKit, et stykke teknologi som i dag brukes av giganter som Apple, Dropbox og IBM på over en milliard enheter globalt. Etter 13 år i sjefsstolen, og etter at Insight Partners hadde pumpet inn over 100 millioner euro i selskapet, møtte Steinberger veggen. Han var utbrent og trakk seg tilbake fra teknologibransjen.
Spol frem til sent i 2025. AI-modellene hadde blitt så gode at Steinberger kjente kodelysten vende tilbake. På omtrent én time snekret han sammen en prototype på et verktøy han kalte Claudebot. Konseptet var like enkelt som det var genialt: En selv-hostet AI-agent som kjørte lokalt på din egen maskin, i bakgrunnen, 24/7. Den hadde persistent hukommelse lagret som lokale markdown-filer – noe som betydde at *du* eide dataene dine. Den integrerte sømløst med plattformene du faktisk bruker: WhatsApp, Telegram, Discord, Signal, Slack og iMessage.
Den 26. januar 2026 ble Claudebot annonsert offentlig. Respons? Eksplosiv. Prosjektet dro inn 25 000 stjerner på GitHub på én enkelt dag. Det smadret alle tidligere rekorder. Innen midten av februar hadde det passert 196 000 stjerner, og plasserte seg i samme liga som gigantiske biblioteker som React og selve Linux-kjernen. Aldri før har et stykke programvare vokst så raskt. Som vi har skrevet om tidligere, var dette et paradigmeskifte.
Men navnet Claudebot var selvsagt en rød klut for Anthropic. Etter en rask «cease and desist»-ordre og et par navnebytter i løpet av fire dager, gjenoppsto prosjektet som OpenClaw. Men det var ikke navnet eller funksjonene som var den virkelige magien. Det var økonomien i det hele.
Den tekniske genistreken: API-økonomi møter forbrukerpriser
Her er hemmeligheten som alle elsket, og som til slutt felte tusenvis av brukere: OpenClaw var designet for å koble seg til en hvilken som helst AI-modell. Men den tilbød en metode som la grunnlaget for massiv API-arbitrasje.
Når du bruker en AI-modell som utvikler, bruker du normalt et offisielt API. Her betaler du per token. Hver eneste forespørsel koster en liten brøkdel av et øre. Jo mer agenten din jobber, jo mer betaler du. Det er en skalerbar, rettferdig og transparent modell bygget for maskin-til-maskin-kommunikasjon.
På den andre siden har vi forbrukerproduktene. Ta Googles Anti-Gravity IDE som et eksempel. Du betaler en fast månedspris – la oss si rundt 250 kroner for Ultra-abonnementet – for ubegrenset tilgang til Gemini 3 Pro gjennom et webgrensesnitt. Denne prisen er kalkulert basert på hvordan et menneske opererer. Et menneske skriver en prompt, leser svaret, tenker seg om, og skriver en ny prompt. Det er en treg, interaktiv prosess.
Men hva hvis du kunne ta den faste månedsprisen og koble den til en utrettelig robot? Brukere av OpenClaw fant raskt ut at de kunne trekke ut OAuth-tokenet – selve den digitale nøkkelen som beviser at du har et aktivt abonnement – fra nettleseren sin. Det var ingen hacking involvert. Ingen spoofing. Bare en ren kopiering av et gyldig token som de deretter limte inn i konfigurasjonsfilen til OpenClaw.
Plutselig hadde de API-lignende tilgang til backend-infrastrukturen, men for en fast, lav forbrukerpris. OpenClaw begynte å hamre løs på serverne. Autonome agent-loops genererte kode, analyserte filer og kjørte hundrevis av forespørsler klokken tre om natten mens brukeren sov. Det er som å kjøpe et «spis så mye iskrem du vil»-pass på tivoli for 250 kroner, og deretter sende inn en industriell robotarm for å spa ut hundrevis av liter i døgnet.
Flere kilder peker på at dette skapte en enorm belastning. For oss utviklere var det en no-brainer. Vi fikk enorm kraft til en slikk og ingenting. Men for Google var det et massivt, blødende sår i infrastruktur-budsjettet.
Da fellen klappet igjen: Googles nådeløse respons
Google merket selvsagt dette. Hver eneste forespørsel går gjennom deres servere, og de logger alt. Trafikken fra OpenClaw så ikke ut som menneskelig trafikk fra et IDE. Klient-signaturene var annerledes. Mønstrene var maskinelle. Volumet var astronomisk.
Den 12. februar 2026, en uke før noen andre i bransjen hadde sagt et pip, begynte øksen å falle. Utviklere som betalte dyrt for sine Ultra-abonnementer begynte å våkne opp til generic «403 Forbidden»-feilmeldinger. Ingen e-post i forkant. Ingen advarsel. Ingen «grace period». Bare en kald, hard digital stengt dør. «Tjenesten er deaktivert for dette kontot for brudd på vilkårene,» var alt de fikk.
Når fortvilte brukere kontaktet support, havnet de i et byråkratisk mareritt. Google One-support sa det var feil avdeling. Google Cloud-support sa det samme. Representanter på forumet lovet oppfølging, bare for å slette postene sine og, i noen tilfeller, tilsynelatende suspendere brukernes forumkontoer for å stille spørsmål. Det var et gapende, sort hull. Og det verste? Google fortsatte å trekke dem for det månedlige abonnementet, uten å tilby noen refusjonsordning.
Det er verdt å huske at dette ikke var hackere med onde hensikter. Dette var betalende kunder som brukte et åpen kildekode-verktøy. Noen av dem rapporterte at de hadde brukt OpenClaw marginalt – kanskje tre-fire ganger over flere måneder for å teste det ut. Likevel ble de permanent utestengt. Googles system for massiv utestengelse manglet enhver form for nyansering. Har du brukt OAuth-tokenet i OpenClaw? Bam. Du er ute.
Flere uker senere kom den offisielle forklaringen fra support: «Vår etterforskning har spesifikt bekreftet at bruk av dine påloggingsopplysninger i tredjepartsverktøyet OpenClaw utgjør et brudd på Googles tjenestevilkår… Dette skyldes bruk av Anti-Gravity-servere til å drive et produkt som ikke er Anti-Gravity. Vi kan ikke omgjøre suspensjonen.»
Zulero-toleranse. Null appell. Rapportene om Googles knallharde linje skapte sjokkbølger. Lederen for Anti-Gravity tok til Twitter og kalte bruken «ondsinnet» («malicious»). Smak på det ordet. Du betaler selskapet den høyeste mulige prisen de krever, du bruker deres eget autentiseringssystem, og når du bruker verktøyet på en måte de ikke har tatt høyde for teknisk, kaller de deg ondsinnet. Det er en arroganse som får blodet mitt til å koke.

Kontrasten: Hvordan Anthropic og OpenAI taklet krisen
For å forstå hvor dårlig Google har håndtert dette, må vi se på hvordan konkurrentene løste nøyaktig samme problem.
Den 20. februar publiserte Anthropic en oppdatert side for juridisk etterlevelse. De forbød eksplisitt bruk av OAuth-tokens fra Claude Pro og Max i tredjepartsverktøy som OpenClaw. De forklarte rasjonalet tydelig: Tredjepartsverktøy skaper uvanlige trafikkmønstre som gjør det umulig for support å feilsøke problemer, og det bryter med den tiltenkte bruken av abonnementet.
Men her er den kritiske forskjellen: Anthropic satte ikke i gang en masseutestengelse. De opprettholdt en åpen dialog med Peter Steinberger. De skilte mellom de som drev kommersielt videresalg av tokens og de som bare eksperimenterte personlig. De brukte «soft blocks» – midlertidige sperrer – for å stoppe overdreven trafikk, fremfor å permanent knuse brukernes tillit. Som vi vet, er det flere måter å kjøre lokale agenter på, og Anthropic valgte edukasjon foran eksekusjon.
Og så har vi OpenAI. Dette er kanskje den villeste twisten i hele historien. Den 15. februar – mens Google var midt i sin tause masseutestengelse – annonserte Sam Altman at de hadde ansatt Peter Steinberger! Altman kalte ham et geni. OpenClaw ble flyttet til en uavhengig stiftelse for åpen kildekode, med OpenAAI (OpenAIs nye struktur) som sponsor. OpenAI er per i dag den eneste store aktøren som eksplisitt *tillater* tredjepartsverktøy å bruke abonnementspålogging. «Kom inn,» sier OpenAI. «Vi tar en prat,» sier Anthropic. «Du er utestengt, men fortsett å betale,» sier Google.
Faktasjekk: Hva vet vi egentlig i kaoset?
Når støvet legger seg, er det viktig å skille mellom hva som er harde fakta og hva som er rykter i forum-skyttergravene.
Bekreftet:
– Google har permanent utestengt tusenvis av Anti-Gravity Ultra-abonnenter for å ha brukt OAuth-tokens i OpenClaw.
– Utestengelsene kom uten forvarsel, uten e-post, og brukere ble fortsatt fakturert etter at de mistet tilgangen.
– Anthropic har oppdatert sine TOS for å forby metoden, noe som har skapt debatt på Hacker News, men har ikke tydd til masseutestengelser.
– OpenAI har ansatt OpenClaw-skaperen og sponser prosjektets videreutvikling.
Sannsynlig:
– Googles reaksjon var drevet av akutt panikk over infrastrukturkostnader og kapasitetsproblemer forårsaket av OpenClaws massive volum, noe som overstyrte normale kundeservice-protokoller.
– Systemet for utestengelse var en grov, automatisert slegge som traff blindt alle som trigget OAuth-signaturen, uavhengig av faktisk volum.
Ubekreftet:
– Påstander om at Google målrettet utestengte brukere kun for å stille kritiske spørsmål på utviklerforumet er ikke formelt bevist, selv om timingen i mange anekdoter er mistenkelig.
Bredere konsekvenser for indieutviklere og AI-fremtiden
Dette er ikke første gang en plattform trekker teppet under føttene på utviklere. Som PCWorld påpeker, har vi sett det før. Vi så det da Reddit drepte tredjepartsklienter som Apollo ved å prise API-et sitt til himmels. Vi så det da Twitter knuste sitt eget økosystem over natten. «Flat rate»-modeller overlever aldri når brukere finner en måte å automatisere forbruket på. Enten det er DSL-bredbånd på 90-tallet eller mobil-data på 2000-tallet – de 2 prosentene av brukerne som konsumerer 80 prosent av ressursene vil alltid tvinge frem en endring.
Men Googles håndtering er et skremmende varsku. De hadde all data. De kunne sett hvem som var superbrukere og hvem som bare lekte seg. De kunne innført «rate limiting» (hastighetsbegrensninger). De kunne sendt en e-post: «Hei, vi ser du bruker OpenClaw. Slik automatisering krever et API-abonnement. Vi har satt kontoen din på pause i 48 timer. Vennligst bytt over.»
Å utestenge sine mest ivrige, betalende kunder permanent er ikke bare dårlig kundeservice; det er en strategisk blunder. Disse superbrukerne er akkurat de menneskene du ønsker å konvertere til høytbetalende API-kunder. I stedet har Google nå skapt en hel generasjon av utviklere som aldri vil stole på dem igjen. Du bygger ikke hele din bedrifts arbeidsflyt på en plattform som kan slette deg fra eksistensen med et automatisert script klokken fire på en tirsdag, uten rett til å forsvare deg. Som vi har diskutert i min guide til å bygge en AI-agent-hær, er robusthet og plattform-uavhengighet kritisk.
Slik overlever du i agent-æraen: Råd til utviklere
Hvis du er en utvikler som navigerer i dette stadig skiftende landskapet, er det noen harde leksjoner vi må trekke fra OpenClaw-debaklet.
1. Et token er ikke en API-nøkkel
Dette er den viktigste tekniske erkjennelsen. Selv om et OAuth-token *fungerer* teknisk for å gi tilgang til en backend, betyr det ikke at du har lov til å bruke det som en API-nøkkel. Selskapene kan og vil spore forskjellen i trafikkmønsteret ditt. Hvis du bygger automatisering, bruk det offisielle API-et og betal per token. Ja, det koster mer penger per kjørte forespørsel, men du kjøper deg trygghet.
2. Aldri stol blindt på én enkelt plattform
Gjør agent-konfigurasjonene dine bærbare. Hvis du bruker OpenClaw, AutoGPT, eller Claude Code, sørg for at du lett kan bytte ut LLM-motoren i bakgrunnen. Hvis Google stenger deg ute i dag, bør du kunne rute trafikken din til Anthropic eller OpenAI på under fem minutter. Diversifisering er den eneste beskyttelsen du har mot plattformrisiko.
3. Les den fordømte «Terms of Service»
Det er kjedelig, det er juridisk svada, men det er kontrakten som avgjør om du får beholde tilgangen din. Hvis det står at tjenesten kun er for «interaktiv bruk» i «førstepartsapplikasjoner», så betyr det nøyaktig det. Ignorerer du det, leker du russisk rulett med kontoen din.
4. Sett harde grenser for autonome loops
Hvis du skal kjøre AI-agenter, sett opp tydelige «kill switches». Hvis agenten din havner i en evig feilsløyfe klokken tre om natten, bør den stoppe etter ti forsøk, ikke fyre av tusenvis av API-kall før du våkner. Både for din egen regnings skyld (hvis du bruker API), og for å unngå å trigge spam-filtre hos leverandøren.
OpenClaw-kontroversen er et klassisk eksempel på hva som skjer når grensesprengende open-source innovasjon kolliderer med bedrifters budsjett-realiteter. Peter Steinberger bygget fremtiden i en helg. Brukerne elsket det. Men infrastrukturen – og jussen – var ikke klar for at fremtiden skulle være gratis.
At Anthropic valgte dialog, og at OpenAI rett og slett slukte hele prosjektet, viser at det finnes nyanserte måter å håndtere denne overgangen på. Googles reaksjon vil imidlertid stå igjen som et skoleeksempel på hvordan man *ikke* behandler sine mest dedikerte brukere.
Agent-revolusjonen er her, uansett om tech-gigantene liker de økonomiske konsekvensene eller ikke. Vår jobb som utviklere er å bygge videre, men vi må gjøre det med åpne øyne. Ikke la illusjonen om ubegrenset, fastpris-AI blinde deg for realitetene: I skyen er du alltid bare én server-oppdatering unna å bli stengt ute i kulden.