Avinstalleringer av ChatGPT skjøt i været etter at avtalen med det amerikanske forsvarsdepartementet ble kjent. Tall TechCrunch viser til fra Sensor Tower peker på et 295 % hopp dag-over-dag i USA – samtidig som Claude klatret til toppen av App Store. Jeg leser dette som et tillitssignal: Folk reagerer ikke bare på modellkvalitet, men på hva AI brukes til og hvem som setter rammene.

Hva skjedde – og hvorfor slo det så hardt ut?

Ifølge TechCrunch falt ChatGPTs nedlastinger og 5-stjerners vurderinger, mens 1-stjernersøkningen var kraftig. Samtidig økte Claude-appen markant etter at Anthropic sa nei til en DoD-avtale. Dette er ikke et laboratorieeksperiment, men rå markedsatferd i sanntid: brukere stemmer med tommelen og app-listene. Jeg mener det viser at verdier, risikoopplevelse og styring av AI nå er like viktige som «hvor smart modellen er».

Min posisjon er enkel: Å bruke AI til å overvåke egne innbyggere og å utvikle fullt autonome våpen er avskyelig. Punktum. Likevel må vi orke å holde to tanker i hodet samtidig: Egne innbyggere kan også gjøre avskyelige ting. Terrorisme, organisert kriminalitet og målrettede digitale angrep er reelle trusler. Det legitimerer ikke masseovervåking eller uansvarlig våpenautonomi, men det forplikter oss til å bygge forsvar – med høy terskel for inngrep og med etterprøvbarhet.

Kappløpet vi ikke ønsket – men likevel står i

Kina kjører allerede AI som verktøy for omfattende overvåking og utvikling av autonome våpen. Det skaper et sikkerhetspolitisk kappløp som vestlige demokratier enten deltar i – eller taper. Jeg skulle helst sagt at vi kan velge det helt bort, men ærlig talt: Hvis man velger seg helt ut, risikerer man en verden der autoritære regimer definerer standardene. Det er et dårlig utfall.

For meg blir derfor spørsmålet: Hvordan deltar vi minst mulig destruktivt? Det betyr transparente rammer, klare «no‑go»‑soner (for eksempel autonome målvalg med dødelige konsekvenser), og ansvarslinjer som kan revideres i ettertid. Det betyr også at sivile bruksområder må ha prioritet og sterkere vern. Når vi bygger forbrukerprodukter på toppen av disse modellene, må vi våge å la etikk og samfunnsoppdrag trumfe kortsiktig vekst.

Forbrukertillit har blitt en produktfunksjon

Det 295 %‑sjokket er et datapunkt som produktteam bør ramme inn og henge opp på veggen. Beslutninger om partnere og kontrakter påvirker ikke bare PR – de påvirker anskaffelser, app‑ranking og daglige aktive brukere. Jeg har skrevet om hvordan adopsjon av AI‑tjenester svinger med opplevd verdi og risiko i andre markeder, inkludert generativ musikk der tempoet i adopsjon er brutalt raskt og publikumsdommen nådeløs. Se for eksempel hvordan AI‑musikk har fått et stort betalende publikum og hvordan modellkappløpet gir raske skifter i preferanser.

Poenget er det samme her: Tillit skalerer – begge veier. Når du med ett tastetrykk flytter tusenvis av brukere, er det fordi folk ikke bare velger «best i test», de velger «riktig i magen».

Hva betyr dette for Norge – og for deg som bygger?

Jeg forventer at offentlige innkjøp vil etterspørre tydeligere dokumentasjon rundt datasett, leverandørkjeder og bruksrammer. «Habiliterte modeller» – godkjente for gitte formål – kommer til å bli normalen, mens kontroversielle partnerskap kan gi minuspoeng i anbud. For brukerprodukter må du regne med hyppigere behov for å forklare hvorfor du velger en modell, ikke bare hvilken. Sett av plass i roadmapen til dette.

For sluttbrukere er kjørereglene like enkle som de er krevende: Les leverandørens policy, følg pengestrømmene, og vurder alternativer når verdikompasset ditt blinker rødt. Det finnes alltid andre verktøy – akkurat som vi ser når folk bytter mellom samtale‑apper og generative tjenester. Jeg har tidligere pekt på hvordan publikum raskt flytter seg når opplevd verdi og rettigheter endres, for eksempel i markeder der gratis plutselig ikke er gratis eller når nye modeller endrer konkurranseflaten.

Én setning å ta med seg

AI som masseovervåker eller trekker av våpen på egen hånd, er uakseptabelt – men å melde seg helt ut av teknologikappløpet er heller ikke etisk nøytralt. Veien videre er kjedeligere og vanskeligere: strenge rammer, åpne spor av ansvar, og produkter som tåler at brukerne faktisk bryr seg om mer enn demo‑triks.

Les: ChatGPT Norsk Guide – Slik Kommer Du i Gang (2026).

Legg igjen en kommentar

Din e-postadresse vil ikke bli publisert. Obligatoriske felt er merket med *

Meld deg på nyhetsbrevet

Få oppdateringer om AI nyhetene rett i inboxen!

Du liker kanskje denne også
Jan Sverre med headphones og lydmikser i boardroom-møte med forvirrede executives

Suno AI Copyright 2026 – Opphavsrett og Rettigheter for AI-Musikk

Kan du tjene penger på Suno-musikk? Her er en praktisk gjennomgang av rettigheter, risiko og hva du bør avklare før publisering.
Jan Sverre tester GPT-5.2 ved en transparent OpenAI GPT-skjerm

GPT-5.2: Jeg testet OpenAIs nyeste modell – her er hva som faktisk fungerer

GPT-5.2 er ute med tre versjoner. Jeg har testet thinking-modellen, sammenlignet med 5.1, og funnet ut hva som faktisk er bedre. Her er mine erfaringer.
Jan Sverre profesjonelt fotograf-kvalitet portrett AI-generert bildegenerering

Google NotebookLM

Google NotebookLM er en AI-assistent som gjør dokumenter om til interaktive samtaler, studieguidere og podcasts på norsk. Nå drevet av Gemini 3 Pro med nye funksjoner som infographics, slide decks og Deep Research. Komplett guide til gratis vs. Plus-versjon.
Jan Sverre Bauge sitter foran dataskjermer med AI-agent dashboards og meldingsapper i full aktivitet

Hva Er ClawdBot? Open-Source AI-Agent med Sikkerhetsproblemer

Clawdbot er open-source AI-agenten alle snakker om. Slik kommer du i gang – og slik sikrer du deg mot alvorlige sårbarheter.