Innhold Vis
Avinstalleringer av ChatGPT skjøt i været etter at avtalen med det amerikanske forsvarsdepartementet ble kjent. Tall TechCrunch viser til fra Sensor Tower peker på et 295 % hopp dag-over-dag i USA – samtidig som Claude klatret til toppen av App Store. Jeg leser dette som et tillitssignal: Folk reagerer ikke bare på modellkvalitet, men på hva AI brukes til og hvem som setter rammene.
Hva skjedde – og hvorfor slo det så hardt ut?
Ifølge TechCrunch falt ChatGPTs nedlastinger og 5-stjerners vurderinger, mens 1-stjernersøkningen var kraftig. Samtidig økte Claude-appen markant etter at Anthropic sa nei til en DoD-avtale. Dette er ikke et laboratorieeksperiment, men rå markedsatferd i sanntid: brukere stemmer med tommelen og app-listene. Jeg mener det viser at verdier, risikoopplevelse og styring av AI nå er like viktige som «hvor smart modellen er».
Min posisjon er enkel: Å bruke AI til å overvåke egne innbyggere og å utvikle fullt autonome våpen er avskyelig. Punktum. Likevel må vi orke å holde to tanker i hodet samtidig: Egne innbyggere kan også gjøre avskyelige ting. Terrorisme, organisert kriminalitet og målrettede digitale angrep er reelle trusler. Det legitimerer ikke
Kappløpet vi ikke ønsket – men likevel står i
Kina kjører allerede AI som verktøy for omfattende overvåking og utvikling av autonome våpen. Det skaper et sikkerhetspolitisk kappløp som vestlige demokratier enten deltar i – eller taper. Jeg skulle helst sagt at vi kan velge det helt bort, men ærlig talt: Hvis man velger seg helt ut, risikerer man en verden der autoritære regimer definerer standardene. Det er et dårlig utfall.
For meg blir derfor spørsmålet: Hvordan deltar vi minst mulig destruktivt? Det betyr transparente rammer, klare «no‑go»‑soner (for eksempel autonome målvalg med dødelige konsekvenser), og ansvarslinjer som kan revideres i ettertid. Det betyr også at sivile bruksområder må ha prioritet og sterkere vern. Når vi bygger forbrukerprodukter på toppen av disse modellene, må vi våge å la etikk og samfunnsoppdrag trumfe kortsiktig vekst.
Forbrukertillit har blitt en produktfunksjon
Det 295 %‑sjokket er et datapunkt som produktteam bør ramme inn og henge opp på veggen. Beslutninger om partnere og kontrakter påvirker ikke bare PR – de påvirker anskaffelser, app‑ranking og daglige aktive brukere. Jeg har skrevet om hvordan adopsjon av AI‑tjenester svinger med opplevd verdi og risiko i andre markeder, inkludert generativ musikk der tempoet i adopsjon er brutalt raskt og publikumsdommen nådeløs. Se for eksempel hvordan AI‑musikk har fått et stort betalende publikum og hvordan modellkappløpet gir raske skifter i preferanser.
Poenget er det samme her: Tillit skalerer – begge veier. Når du med ett tastetrykk flytter tusenvis av brukere, er det fordi folk ikke bare velger «best i test», de velger «riktig i magen».
Hva betyr dette for Norge – og for deg som bygger?
Jeg forventer at offentlige innkjøp vil etterspørre tydeligere dokumentasjon rundt datasett, leverandørkjeder og bruksrammer. «Habiliterte modeller» – godkjente for gitte formål – kommer til å bli normalen, mens kontroversielle partnerskap kan gi minuspoeng i anbud. For brukerprodukter må du regne med hyppigere behov for å forklare hvorfor du velger en modell, ikke bare hvilken. Sett av plass i roadmapen til dette.
For sluttbrukere er kjørereglene like enkle som de er krevende: Les leverandørens policy, følg pengestrømmene, og vurder alternativer når verdikompasset ditt blinker rødt. Det finnes alltid andre verktøy – akkurat som vi ser når folk bytter mellom samtale‑apper og generative tjenester. Jeg har tidligere pekt på hvordan publikum raskt flytter seg når opplevd verdi og rettigheter endres, for eksempel i markeder der gratis plutselig ikke er gratis eller når nye modeller endrer konkurranseflaten.
Én setning å ta med seg
AI som masseovervåker eller trekker av våpen på egen hånd, er uakseptabelt – men å melde seg helt ut av teknologikappløpet er heller ikke etisk nøytralt. Veien videre er kjedeligere og vanskeligere: strenge rammer, åpne spor av ansvar, og produkter som tåler at brukerne faktisk bryr seg om mer enn demo‑triks.