Innhold Vis
Sears eksponerte AI chatbot-samtaler og telefonopptak fra sin kundeservice åpent på nettet – tilgjengelig for hvem som helst uten innlogging eller autentisering. Det melder Wired 17. mars 2026. Samtalene kan inneholde kontaktinformasjon og personlige detaljer som gjør det enkelt for svindlere å gjennomføre phishing-angrep og identitetssvindel.
Dette er ikke første gang Sears havner i sikkerhetstrøbbel med sin chatbot-infrastruktur. I 2017 ble kredittkortinformasjonen til nærmere 100 000 kunder kompromittert gjennom chatbot-leverandøren [24]7.ai – og Sears fikk ikke vite om det før i mars 2018, fem måneder etter angrepet. Nå, åtte år senere, er problemet et annet: ikke et målrettet angrep, men en åpen dør ingen giddet å stenge.
Saken er én av flere store AI chatbot-sikkerhetshendelser hittil i 2026, og reiser et spørsmål som har ligget i luften en stund: Vet bedrifter som ruller ut AI-basert kundeservice faktisk hva de gjør med dataene kundene deler?
Hva ble eksponert?
Ifølge Wired dreier det seg om samtaler fra Sears’ AI-drevne kundeservice – både tekst-chatter og opptak fra telefonsamtaler. Slike samtaler inneholder typisk navn, adresse, ordrenummer, leveringsinformasjon og i noen tilfeller betalingsdetaljer. Kunder som ringte for å få hjelp med en maskin de hadde kjøpt eller en serviceavtale, visste ikke at samtalen ville havne tilgjengelig på det åpne nettet.
Eksponerte chatbot-samtaler er spesielt nyttige for svindlere. De avslører ikke bare hvem personen er, men hva de nettopp har kjøpt, hva de er frustrerte over og hvilken kontaktinformasjon de oppga. Det er skreddersydde data for målrettet svindel – langt mer verdifullt enn en tilfeldig e-postadresse fra et gammelt passord-leak.
Sears har ikke offentlig kommentert omfanget av eksponeringen – altså hvor lenge samtalene var tilgjengelige, eller hvor mange kunder som er berørt.
Er dette et mønster?
Det korte svaret: ja. 2026 har allerede vist et tydelig mønster der AI-chatbot-infrastruktur rulles ut raskt, sikkerhetskonfigurasjonen henger etter.
I januar 2026 oppdaget sikkerhetsforskeren Harry at Chat & Ask AI hadde eksponert 300 millioner meldinger fra 25 millioner brukere. Årsaken: en Firebase-database som var satt til «public» i stedet for å kreve autentisering. Appen hadde over 50 millioner nedlastinger, og samtaler om alt fra psykisk helse til arbeidshemmeligheter lå åpent.
I mars 2026 brukte sikkerhetsfirmaet CodeWall et autonomt AI-penetrasjonsverktøy til å bryte seg inn i McKinseys interne chatbot «Lilli» via en klassisk SQL injection-sårbarhet – en feil som har vært dokumentert siden 1990-tallet. 46,5 millioner chatmeldinger og systemkonfigurasjoner ble eksponert.
Tidligere i 2025 ble Moltbook kompromittert innen dager etter lansering: 1,5 millioner API-autentiseringstokens og 35 000 e-postadresser lå åpent etter én feil i databasekonfigurasjonen. En forsker som skannet 200 iOS-apper fant at 103 av dem hadde Firebase-konfigurasjonsproblemer.
Det er ikke snakk om sofistikerte angrep. Det er snakk om grunnleggende sikkerhetsfeil som aldri ble oppdaget.
Hvorfor skjer dette gang på gang?
Chatbot-infrastruktur er kompleks. En typisk AI kundeservice-løsning består av en LLM-leverandør, en tredjeparts chatbot-plattform, et CRM-system, et lagringslag for samtalelogg, og kanskje en separat pipeline for stemmeopptak. Hvert ledd er et potensielt hull – og ansvaret for sikkerhetskonfigurasjon er ofte uklart mellom bedriften og leverandøren.
De fleste bedrifter som kjøper en ferdig AI-chatbot-løsning tenker ikke på samtalene som sensitiv data på linje med betalingsinformasjon. Men det burde de. En samtale der en kunde forklarer at vaskemaskinen er ødelagt og at adressen er Storgata 14 – det er nok informasjon til å ringe vedkommende og utgi seg for å være en Sears-tekniker som ber om kortinformasjon for å «bekrefte bestillingen».
Sears er et godt eksempel på at historien gjentar seg. I 2017-bruddet via [24]7.ai var problemet en tredjepart som ble hacket. I 2026 ser problemet ut til å være konfigurasjonsfeil i Sears’ egen infrastruktur – eller hos en leverandør de bruker. Resultatet er det samme: kundedata tilgjengelig for uvedkommende.
Hva bør kundene gjøre?
Hvis du har kontaktet Sears kundeservice via chat eller telefon de siste månedene, er det grunn til å være årvåken. Konkret betyr det:
- Vær skeptisk til oppfølgingssamtaler fra noen som oppgir å være fra Sears – særlig hvis de refererer til detaljer fra en tidligere samtale
- Ikke oppgi kortinformasjon eller passord på telefon, selv om personen virker legitim
- Sjekk om du har mottatt phishing-forsøk på e-post som refererer til kjøp eller serviceforespørsler du faktisk har gjort
Sears selv har ikke varslet kundene offentlig ennå – i alle fall ikke per publiseringsdato for denne artikkelen.
Hva sier dette om AI i kundeservice generelt?
Bedrifter vedtar AI-chatbot-løsninger i rekordtempo – og det er ikke rart. De er billige, skalerbare og klager aldri på å jobbe nattevakt. Men sikkerhetsmodellen som gjelder for tradisjonell kundeservice (ikke ta opp samtaler som standard, logg minst mulig, anonymiser data) er ikke automatisk på plass i AI-løsninger.
Tvert imot: AI-chatboter er avhengige av samtalelogg for å fungere godt. De lagrer kontekst, forbedrer modellen og logger alt for analyse. Det er nødvendig – men det betyr også at det finnes en databas av sensitive samtaler et sted. Og den databasen må sikres.
Jeg har tidligere skrevet om hvordan AI-agenter kan eksponere API-nøkler, og om rettsakene mot AI-selskapene om chatbot-skader. Sears-saken er et annet hjørne av det samme problemet: AI-systemer behandles som IT-produkter, men sikkerhetskravene er langt høyere enn for et CRM-system fra 2010.
Det er ikke noe reguleringsapparat som kommer til å løse dette. Det er bedrifter som må slutte å behandle chatbot-data som noe annet enn det de faktisk er: sensitiv kundekommunikasjon med fullt ansvar.
Sears-skandalen er neppe den siste i 2026. Men den bør i det minste få folk til å stille ett enkelt spørsmål til leverandøren sin: Hvem kan faktisk se disse samtalene?