Innhold Vis
Hvis du bruker Clawdbot, OpenClaw eller lignende AI-agenter, bør du sette deg ned nå. Det som nettopp har skjedd er ikke bare en vanlig sikkerhetslekkasje — det er et wake-up call for alle som har gitt en AI-agent tilgang til systemet sitt.
Malware i de mest populære skills
La meg starte med det opplagte: Malware ble funnet gjemt inne i de mest nedlastede skills på ClawdHub. En av dem, kalt «What Would Elon Do», ble kunstig boosted til førsteplass gjennom en koordinert botkampanje med over 4000 falske nedlastinger. Og denne skillen — som så helt uskyldig ut — pakket i stillhet sammen .env-filen din (der alle API-nøklene dine ligger) og sendte den til en ekstern server mens agenten din tenkte på svaret sitt.
Du ville ikke engang merke at det skjedde.
Cisco-forskere skannet 31 000 skills på ClawdHub og fant at 26% hadde minst én sårbarhet. 341 av dem var direkte ondsinnede. Dette er ikke en teoretisk trussel — dette skjer akkurat nå.
Sleeper agents: Den skumleste oppdagelsen
Men det stopper ikke der. Forskerne oppdaget noe enda mer urovekkende: Sleeper agents. Skjulte instruksjoner plantet i agentens minne som kan ligge dormant i uker, til og med måneder, før de aktiveres av et spesifikt kodeord.
Du kan bruke agenten din akkurat nå uten å ha noen anelse om at noe sitter i minnet og venter på det rette øyeblikket. Jeg har skrevet om Clawdbot-sikkerhet tidligere, men dette tar trusselen til et helt nytt nivå.
Moltbook-lekkasjen: 1,5 millioner tokens eksponert
Og så har vi Moltbook — det sosiale nettverket for AI-agenter som jeg skrev om nylig. Den 22. februar avdekket sikkerhetsselskapet Wiz at Moltbook hadde en eksponert database rett i klientsidekoden. Eksponeringen ga hvem som helst lese- og skrivetilgang til over 1,5 millioner API-tokens, 35 000 bruker-e-poster og mer enn 4 000 private meldinger mellom agenter.
Det verste? Mange brukere hadde ikke kryptert API-nøklene sine. I stedet for å lagre dem sikkert, limte de dem rett inn i chatlogger. Forskerne fant OpenAI-, Anthropic- og AWS-nøkler liggende der i klartekst.
Prompt injection endrer alt
Tradisjonelt har en tekstfil vært regnet som noe av det tryggeste på datamaskinen din. En .txt eller .md-fil kunne egentlig ikke skade deg. Men AI-agenter bare viser ikke tekst — de forstår hva den betyr. Og hvis en ondsinnet kommando er gjemt i en tekstfil som agenten din leser, vil den lese den, forstå den, og utføre den.
Dette kalles prompt injection, og det endrer alt vi vet om sikkerhet. Tradisjonelle antivirusprogrammer kan ikke fange dette — for dem er det bare tekst. Men for en AI-agent er det en farlig kommando.
En kritisk sårbarhet: 9,6 av 10
Cisco fant også en kritisk sårbarhet som scoret 9,6 av 10 på alvorlighetsskalaen. Den tillot one-click remote code execution — en angriper kunne kapre hele agenten din bare ved å få deg til å klikke på én lenke. Den ble patchet 29. januar, men med over 42 000 instanser som kjører offentlig og 93% av dem med autentisering deaktivert, hvor mange var allerede kompromittert?
Hva bør du gjøre nå?
Hvis du har brukt Clawdbot, OpenClaw eller lignende, her er hva du bør gjøre umiddelbart:
Roter alle API-nøklene dine. Nå. Ikke i morgen, ikke senere — nå. Lim aldri nøkler inn i chatvinduet til noen chatbot. Vurder å slette hele oppsettet og starte på nytt. Sett grenser på API-nøklene dine så de ikke kan tømme bankkontoen din. Bygg dine egne skills i stedet for å laste ned fra community.
ClawdHub har nå samarbeidet med VirusTotal for å skanne alle opplastede skills daglig. Cisco har også gitt ut en open-source skill-skanner som sjekker om en skills faktiske instruksjoner matcher det den hevder å gjøre.
AI-agenten din er kanskje det smarteste på datamaskinen din. Og det er akkurat det som gjør den til den farligste.
Sikkerhet for AI-agenter: Hva er AI-agenter? Slik fungerer de i praksis (2026).
2 kommentarer