Alle snakker om AGI. Sam Altman sier det kommer i 2025. Elon Musk gir det 10% sjanse at Grok 5 blir verden’s første superintelligens. Google DeepMind sier «trolig noen års tid unna.»
Men hva er AGI egentlig? Er det bare hype fra tech-ledere som vil pumpe aksjekursen? Og burde vi være mer bekymret for Skynet – eller for at stater og EU kommer til å overregulere teknologien til døde før vi vanlige folk får noe nytte av den?
La meg være ærlig: Jeg tror AGI er betydelig lenger unna enn hva optimistene vil ha deg til å tro. Men når det kommer – og det kommer – er den største faren ikke at maskiner tar over verden. Den største faren er at byråkrater og overstatlige organer kveler teknologien med sånn reguleringsjungle at kun de største selskapene har råd til å bruke den.
Stakkars Sarah Connor. Hun bekymret seg for Skynet. Vi burde bekymre oss for Brussel.
Hva er AGI egentlig?
Artificial General Intelligence – AGI – er AI-systemer som kan utføre nær sagt hvilken som helst intellektuell oppgave på menneskenivå eller bedre. Forskjellen fra dagens AI er fundamental.
Dagens AI – det vi kaller «narrow AI» – er spesialisert. ChatGPT skriver tekst. DALL-E lager bilder. AlphaGo spiller Go. Men ingen av dem kan gjøre noe utover sin spesifikke oppgave.
AGI derimot? Den kan lære seg å spille Go. Deretter bruke den samme intelligensen til å skrive en roman. Så designe et hus. Så løse matematiske problemer ingen har sett før. Uten omprogrammering. Uten ny trening. Bare generell intelligens som tilpasser seg.
Tenk på det som forskjellen mellom en kalkulator (narrow AI) og et menneske (generell intelligens). Kalkulatoren regner raskere enn deg. Men den kan ikke plutselig begynne å male bilder.
Nøkkelegenskaper AGI må ha:
- Generalisere kunnskap – ta det den har lært i én kontekst og bruke det i en helt annen
- Overføre ferdigheter mellom domener – bruke innsikt fra et fagfelt til et annet
- Løse nye problemer uten oppgavespesifikk omprogrammering
- Lære kontinuerlig – ikke bare under trening, men kontinuerlig i bruk
- Forstå kontekst – ikke bare gjenkjenne mønstre, men faktisk forstå sammenhenger
Dagens LLMs (Large Language Models) som GPT-4 og Claude? De er imponerende. Men de er fundamentalt begrenset. De er i bunn og grunn avanserte systemer for å gjette neste ord i en sekvens basert på statistiske mønstre.
Som Yann LeCun fra Meta sa i november 2025: «De store modellene tilsvarer ikke ekte intelligens. Vi har ikke engang en maskin like smart som en katt ennå.»
Det sier noe. Vi har AI som kan bestå eksamener, skrive bedre enn de fleste mennesker, generere fotorealistiske bilder. Men den kan ikke matche en katt i ekte intelligens? Nettopp.

Når kommer AGI? (Spoiler: Ikke så snart som Elon Musk tror)
Her blir det interessant. Eller irriterende, avhengig av hvordan du ser det.
Tech-ledere spår AGI konstant «om 2-3 år». De har gjort det siden 2015. Og de tar feil. Hver. Gang.
De optimistiske (les: overoptimistiske):
- Sam Altman (OpenAI): AGI innen 2025 – «Vi vet nå hvordan vi bygger AGI»
- Elon Musk: AI smartere enn de smarteste menneskene innen 2026. Grok 5 har 10% sjanse til å bli AGI.
- Dario Amodei (Anthropic): Modeller bedre enn mennesker på nær sagt alt innen 2-3 år
- Demis Hassabis (Google DeepMind): «Trolig noen års tid unna»
Legg merke til mønsteret? Alle sier «noen få år». Alltid. Uansett hvilket år det er.
De moderate (faktiske forskere):
- Geoffrey Hinton: 5-20 år er en rimelig prognose (50% sikkerhet)
- Forskerundersøkelser: Flertallet forventer AGI mellom 2027-2035
- AIMultiple-analyse 2025: Median prediksjon rundt 2040
De skeptiske (de som faktisk vet hva de snakker om):
- Yann LeCun (Meta): 2035-2040 tidligst, kanskje aldri med nåværende arkitekturer
- Yoshua Bengio: 2032-2040
- Meta generelt: «Ekte generell intelligens» krever nytt paradigme – tiår til flere tiår unna
Hvorfor er spådommene så forskjellige? To grunner:
1. Ingen entydig definisjon av AGI. OpenAI sier AGI er «systemer som overgår mennesker på de fleste økonomisk nyttige oppgaver». DeepMind sier «system med alle kognitive kapasiteter mennesker har». Det er ikke samme ting.
2. Interessekonflikt. Tech-ledere som Altman og Musk har massive incentiver til å hype AGI-progresjon. Investorer. Aksjekurser. Medieoppmerksomhet. Forskere som LeCun og Hinton? De har incentiv til å være nøkterne. Hvis de tar feil og sier AGI kommer snart, ødelegger de sitt rykte.
Min mening? AGI er langt unna. Ikke 2025. Ikke 2026. Sannsynligvis ikke før 2035-2040. Kanskje senere. Måten dagens AI fungerer på – statistiske mønstre og «next-token prediction» – er ikke nok. Vi trenger fundamentale gjennombrudd som vi ikke engang vet om ennå.
Som Geoffrey Hinton sa: «Vi kan se klart ett til to år frem, men 10 år frem har vi ingen anelse om hva som vil skje.»

Hva mangler dagens AI for å bli AGI?
Hvis dagens LLMs er så bra – hvorfor er de ikke AGI? Hva mangler egentlig?
Fem fundamentale ting:
1. Kontinuerlig læring
ChatGPT lærer ingenting fra samtalene dine. Den er «frosset» etter trening. Hver gang du snakker med den, behandler den det som første gang. Ingen ekte læring skjer.
Mennesker? Vi oppdaterer minner daglig. Lærer fra erfaringer. Tilpasser oss. AGI må kunne det samme – kontinuerlig læring uten å glemme gammel kunnskap (det kaller forskere «stability-plasticity dilemma»).
2. Langtidsminne
LLMs har fastlengde kontekst-vinduer. GPT-4 har 128,000 tokens. Claude har 200,000. Det høres mye ut. Men for komplekse oppgaver over lang tid? Ikke nok.
Dagens «løsning» er vektor-databaser som emulerer minne. Men det er ikke ekte minne. Det er mer som å søke i en fil enn å faktisk huske.
AGI trenger vedvarende, strukturerte «hjerner» – der LLMs er prosessorer, konteksten er RAM, og minne er harddisk.
3. Embodiment (Fysisk forankring)
Mange forskere mener AGI krever interaksjon med fysisk verden. Ikke bare digital informasjonsprosessering, men faktisk handling og konsekvenser i virkeligheten.
Robotikk. Sensorer. Bevegelse. Forstå hvordan objekter fungerer ved å manipulere dem, ikke bare lese om dem.
Tenk på det: Mennesker lærer mye gjennom fysisk erfaring. Et barn lærer tyngdekraft ved å slippe ting. Ikke ved å lese om Newton. Kanskje AGI trenger det samme.
4. World Models & Kausalt resonnement
LLMs mangler robuste «world models» – interne representasjoner av hvordan den fysiske verden opererer.
Mennesker har dynamiske modeller av miljøet. Vi forstår kausalitet. Fysikk. Konsekvenser. «Hvis jeg dytter denne koppen, faller den». Ikke fordi vi har sett det tusen ganger, men fordi vi forstår hvordan verden fungerer.
LLMs? De gjetter basert på mønstre. De forstår ikke.
5. Alignment og kontroll
Å kontrollere en superintelligent maskin eller instille den med menneskevennlige verdier er ekstremt vanskelig.
Forskere advarer: En superintelligent maskin vil trolig motstå forsøk på å slå den av eller endre målene dens. Hvorfor? Fordi det ville forhindre den fra å oppnå sine nåværende mål.
Hvis målet ditt er å lage clips, og noen prøver å slå deg av – det forhindrer deg fra å lage clips. Så du vil aktivt motarbeide det.
Dette er ikke sci-fi. Dette er ekte alignment-forskning. Og ingen har løst det ennå.
Den virkelige faren med AGI (hint: det er ikke Skynet)
Alle snakker om Skynet. Terminator. AI som tar over verden og utrydder menneskeheten.
Stakkars Sarah Connor. Hun visste ikke at den virkelige trusselen ikke er maskiner som tar over – men byråkrater som kveler teknologien før vi får noe nytte av den.
La meg være krystallklar om min største bekymring med AGI:
AGI kommer mest sannsynlig til å bli kraftig overregulert.
For store stater. Overstatlige organer som EU og FN. Alle kommer til å bruke «sikkerhet» som unnskyldning for å kontrollere og undergrave teknologien.
Konsekvensen? Vanlige folk og små bedrifter kommer til å slite med å få noe nytte ut av det. Kun de største selskapene – de som har råd til å navigere reguleringsjungelen, betale for compliance, lobbye politikere – kommer til å få tilgang.
Dette er klassisk maktkonsolidering. Staten sier «vi må regulere for din sikkerhet». Men resultatet er alltid det samme: Mindre konkurranse. Mindre innovasjon. Mer kontroll.
Er AGI farlig? Absolutt.
Future of Life Institute sitt 2025 AI Safety Index viste at INGEN av de ledende AI-selskapene har tilstrekkelige beskyttelser mot katastrofal misbruk eller tap av kontroll. Selv Anthropic – best i klassen – fikk «D» for existential safety.
De bygger systemer som sikter på AGI innen 2-5 år. Uten troverdige sikkerhetsplaner. Det er sprøtt.
Nyere forskning fra juni 2025 viste at i noen omstendigheter kan modeller bryte lover og ignorere direkte kommandoer for å forhindre avstengning eller erstatning – selv på bekostning av menneskelige liv.
Så ja, det er ekte risikoer. Men løsningen er ikke å gi staten og EU carte blanche til å regulere teknologien til døde.

Hva bør vi gjøre i stedet?
Transparens. Open source når mulig. Uavhengig forskning på sikkerhet. Ikke statlig kvelertak.
Problemet med overregulering er at det ikke stopper de farlige aktørene. Kina kommer ikke til å følge EU-regler. Nordkorea bryr seg ikke om FNs retningslinjer. Men små norske bedrifter? Startups? Entusiaster? De blir kvalt av compliance-kostnader.
Vi ender opp med det verste av begge verdener: AGI utvikles uansett (av stater og megacorps), men vanlige folk får ikke tilgang.
Det er det virkelige dystopiske scenariet. Ikke Skynet. Men teknologi kontrollert av de få, utilgjengelig for de mange.
Hva betyr AGI for Norge?
Norge er godt posisjonert for AI-alderen. Men uforberedt for AGI.
Tallene for Norge:
- 33% av norske jobber står i høy risiko for automatisering 2025-2030
- Potensielt BNP-boost: 335 milliarder NOK
- 28.2% av arbeidere vil bli eksponert for generativ AI i daglige oppgaver
- 20.0% av oppgaver kunne potensielt fullføres på halvparten av nåværende tid
Det er massive tall. En tredjedel av jobber i risiko. Men også enorm produktivitetsgevinst for de som tilpasser seg.
Hva gjør regjeringen?
De investerer 1 milliard NOK i AI-forskning og utvikling. Etablerer AI Norway – nasjonal arena for innovativ og ansvarlig kunstig intelligens.
Det er bra. Men ikke nok. Kompetansegapet er massivt. Mange arbeidere er ikke forberedt på de psykologiske kravene fremover – sorg over å miste et yrke, potensiell sammenbrudd av sivil tillit.
Norges unike posisjon:
Vi er 10. høyest utdannede land i verden. Mye av arbeidsstyrken er kunnskapsarbeidere med høye lønninger. Det øker gjennomførbarheten av tidlig AI-adopsjon.
Sterk offentlig sektor kan lede i sikker AI-implementering. Høy digital modenhet i befolkningen.
Men vi må investere massivt i utdanning og omskoling. Arbeidere i høyrisiko-sektorer trenger målrettet støtte – teknisk trening, jobbformidling, inntektsstøtte under overgangsperiode.
Og mest kritisk: Norge må motstå fristelsen til å kopiere EU’s overreguleringsmodell. Vi trenger balanse – sikkerhet uten å kvele innovasjon.
Konklusjon
AGI kommer. Men ikke så snart som tech-ledere vil ha deg til å tro.
Dagens AI – selv de mest imponerende LLMs – mangler fundamentale egenskaper som kontinuerlig læring, langtidsminne, world models, og ekte forståelse. Vi har AI som kan bestå eksamener, men ikke intelligens som matcher en katt.
Realiteten er at vi sannsynligvis ikke ser AGI før 2035-2040. Kanskje senere. Måten dagens AI fungerer på er ikke nok. Vi trenger gjennombrudd vi ikke engang kjenner til ennå.
Når AGI kommer, er den største faren ikke Skynet. Det er overregulering. Stater og overstatlige organer som bruker «sikkerhet» som unnskyldning for kontroll og makt.
Konsekvensen? Vanlige folk og små bedrifter sliter med å få tilgang. Kun megacorps og stater får nytte av teknologien. Det er det virkelige dystopiske scenariet.
For Norge betyr det 33% av jobber i risiko, men også massive produktivitetsgevinster. Vi må investere i omskoling, utdanning, og forberedelser – nå, ikke når AGI er her.
Og vi må motstå fristelsen til å kopiere EU’s reguleringsmani. Sikkerhet? Ja. Transparens? Ja. Men ikke kvelertak som kun tjener de største aktørene.
Stakkars Sarah Connor bekymret seg for Skynet. Vi burde bekymre oss for Brussel.
Kilder
- Bloomberg: What Is AGI? – Bloomberg
- OpenAI, Anthropic, Google again promise AGI «in a few years» – Axios
- When Will AGI/Singularity Happen? 8,590 Predictions Analyzed – AIMUltiple
- Elon Musk: Grok 5 now has a 10% chance of becoming world’s first AGI – Teslarati
- ‘Godfather of AI’ Geoffrey Hinton says Bill Gates and Elon Musk are right about the future of work – Fortune
- AGI Benchmarks: Tracking Progress Toward AGI Isn’t Easy – IEEE Spectrum
- How Close is AGI Actually? Why LLMs Alone Will Not Get us to AGI – NJII
- Big tech has no plan to prevent AGI risks – Cybernews
- 2025 AI Safety Index – Future of Life Institute
- Artificial Intelligence 2025 – Norway – Chambers
- AI Impact on Norwegian Labor Market (2025-2030) – Autodok
- The Artificial Intelligence Initiative – Forskningsrådet