Gen 1767725158982

Jeg har en Roborock hjemme. Den er fantastisk til å ta smulene under spisebordet, men la oss være ærlige: Den er dum som et brød. Den vet ikke hva et bordben er, den vet bare at «her stoppet jeg, så jeg må snu». Hvis en sokk ligger på gulvet, blir den spist. Hvis katten kaster opp, blir det… vel, la oss ikke gå inn på det.

I årevis har vi ventet på «Rosey» fra The Jetsons. En robot som faktisk kan rydde ut av oppvaskmaskinen eller brette klær. Argumentet har alltid vært at teknologien er for dyr og AI-en for dårlig. Yann LeCun hos Meta har lenge snakket om at vi ikke engang har nådd «katte-nivå» på intelligens når det gjelder å navigere i den fysiske verden.

Men de siste ukene har noe endret seg. Jeg har sittet og sett på tallene fra Kina, og jeg har dykket ned i open source-miljøene på Hugging Face. Konklusjonen min er kanskje dristig, men jeg står for den: Vi nærmer oss et «iPhone-øyeblikk» for robotikk. Og det er takket være en kombinasjon av kinesisk priskrig og DIY-kulturen som nå våkner til liv.

Prissjokket fra Østen: Unitree G1

Husker dere Boston Dynamics? De lager de utrolige robotene som tar salto og danser. Problemet? «Spot» (robothunden) koster nesten like mye som en luksusbil, og den humanoide «Atlas» var lenge en hydraulisk prototype som lakk olje og kostet millioner.

Så kom Unitree fra Kina på banen. For noen uker siden lanserte de G1-modellen. Dette er en humanoid robot – altså en robot med to armer, to bein og et hode – som er priset til $16,000. Det er i underkant av 175 000 kroner.

Dette er fremdeles mye penger. Det er mer enn en ferie, men det er billigere enn en ny Skoda. Hvorfor er dette viktig? Fordi det markerer overgangen fra forskningslaboratorier til hyllevare. Unitree har, på klassisk Shenzhen-vis, klart å masseprodusere aktuatorer (motorene som beveger leddene) til en brøkdel av prisen av hva vestlige selskaper klarer.

Når hardware-prisen faller så drastisk, skjer det noe med markedet. Plutselig er det ikke bare NASA og MIT som har råd til å eksperimentere. Nå kan universiteter, startups og til og med dedikerte hobbyister (som har solgt bilen sin) være med på leken.

«Hjernen» er endelig på plass

Men billig hardware hjelper ikke hvis roboten oppfører seg som en full sjømann. Det er her det andre gjennombruddet kommer: Vision-Language-Action (VLA) modeller. Som jeg nevnte i artikkelen om VL-JEPA og Meta’s AI som tenker uten ord, begynner vi nå å se grensesnittet mellom visuell forståelse og fysisk handling.

Tidligere måtte man hardkode hver minste bevegelse: «Flytt armen 30 grader til høyre, lukk griperen 50%, løft 10 cm.» Hvis koppen du skulle løfte sto 2 cm feil, feilet hele operasjonen.

A split composition comparison. On the left: A sleek, modern Unitree G1 humanoid robot standing still in a clean studio environment. On the right: A pile of raw, metallic actuator motors and heavy industrial robot parts. High contrast, emphasizing the transition from industrial parts to a consumer product.
A split composition comparison. On the left: A sleek, modern Unitree G1 humanoid robot standing stil

Nå ser vi modeller som Google DeepMinds RT-2 og arbeidet til OpenAI. Disse modellene fungerer mer som ChatGPT, men for bevegelse. De er trent på enorme mengder video og data fra fysiske roboter. Men husk, som jeg har skrevet om før, AI er ikke nødvendigvis en sannhetskilde, så vi må forvente noen klønete feil i starten.

Du kan gi en VLA-modell kommandoen: «Rydd opp det som ikke hører hjemme på bordet.» Modellen forstår konseptet (f.eks. en tom brusboks vs. en vase), og den oversetter dette til motoriske kommandoer. Dette er end-to-end læring. Roboten lærer ikke bare å se, den lærer konsekvensen av handlingene sine.

DIY-revolusjonen: Print din egen arbeider

Det er her jeg blir virkelig engasjert. Jeg er en forkjemper for at teknologi skal være tilgjengelig, ikke innelåst i styrerom. Hugging Face, plattformen som har demokratisert AI-modeller, lanserte nylig LeRobot.

LeRobot er et bibliotek for robotikk som minner om det vi så med 3D-printing for ti år siden. Målet er at hvem som helst skal kunne bygge billige roboter med hyllevare og 3D-printede deler, og så laste ned en «hjerne» som noen andre har trent.

Close-up macro shot of a 3D printer nozzle printing a mechanical finger joint in white PLA plastic. In the blurred background, a computer screen displays Python code and a wireframe model of a robot hand. Represents the 'LeRobot' DIY concept.
Close-up macro shot of a 3D printer nozzle printing a mechanical finger joint in white PLA plastic.

Se for deg dette scenarioet om 2-3 år: Du går på nettet, laster ned CAD-filene til en robotarm. Du printer delene på din Bambu Lab-printer. Du kjøper servomotorer fra AliExpress. Så går du til Hugging Face, laster ned en modell, og vipps – du har en robotarm som kan tømme oppvaskmaskinen. Det minner meg ekstremt mye om Homebrew Computer Club på 70-tallet.

Norge er med i kampen: 1X

Vi kan ikke snakke om humanoide roboter uten å nevne 1X fra Moss. Mens kineserne presser pris på harde, metalliske roboter, har 1X valgt en annen rute med myke roboter designet for å være trygge rundt mennesker. Det er tøft å se et norsk selskap i frontlinjen når giganter som Meta kjøper opp selskaper som Manus AI for milliardbeløp.

Er vi der snart?

Jeg har testet mye AI det siste året. Robotikk er fremdeles vanskeligere. Bits og bytes er gratis å kopiere; atomer er dyre og tunge.

Flaskehalsen nå er ikke lenger intelligensen – det problemet er i ferd med å løses. Flaskehalsen er batterikapasitet og holdbarheten i leddene. En robot som G1 kan kanskje operere i 2 timer før den må lades. Det holder til å lage middag, men den kan ikke jobbe døgnet rundt ennå.

Min konklusjon: Hvis prisutviklingen fortsetter slik Unitree driver den, er vi 3-5 år unna at de første entusiastene har en assistent med armer i hjemmet. Robotstøvsugerens dager er kanskje ikke talte, men den ser plutselig veldig utdatert ut. Hvorfor ha en puck som støvsuger, når du kan ha en maskin som faktisk plukker opp sokkene først?

Hva tenker du? Er du klar for å slippe en humanoid robot inn i stua, eller holder du deg til Roborocken en stund til?

Legg igjen en kommentar

Din e-postadresse vil ikke bli publisert. Obligatoriske felt er merket med *

You May Also Like

Suno AI Copyright – Hva du trenger å vite om rettigheter (2025)

Komplett guide til Suno AI copyright-regler. Pro vs Free, kommersielt bruk, juridiske fallgruver og profesjonelle tips. Oppdatert ToS november 2025.

GPT-5.2: Jeg testet OpenAIs nyeste modell – her er hva som faktisk fungerer

GPT-5.2 er ute med tre versjoner. Jeg har testet thinking-modellen, sammenlignet med 5.1, og funnet ut hva som faktisk er bedre. Her er mine erfaringer.

Google NotebookLM

Google NotebookLM er en AI-assistent som gjør dokumenter om til interaktive samtaler, studieguidere og podcasts på norsk. Nå drevet av Gemini 3 Pro med nye funksjoner som infographics, slide decks og Deep Research. Komplett guide til gratis vs. Plus-versjon.

Suno Voice Personas v5 – samme stemme på tvers av sjangre

Suno lanserer Voice Personas v5 som lar deg bruke samme stemme på tvers av alle musikksjangre. Game-changer for AI-musikkproduksjon med konsistente stemmer og uendelige kreative muligheter.