LoRA-trening har alltid vært mer komplisert enn det trenger å være. Kohya SS er standarden de fleste bruker – men åpner du det første gang, møter du et grensesnitt med faner, underfaner og innstillinger som strekker seg så langt øyet rekker. Anima TrainFlow prøver noe annet: alt på én side, alt du faktisk trenger, ingenting du ikke trenger.

Verktøyet er laget spesifikt for Anima 2B – en open source bildegenererende modell i kategorien diffusion-baserte systemer – og er optimalisert for å kjøre på hardware de fleste faktisk eier. 6GB VRAM er minimumet. Det betyr at en RTX 3060, en RTX 4060, eller tilsvarende er nok til å komme i gang.

Prosjektet dukket opp på Reddit under r/StableDiffusion og skapte umiddelbart interesse fordi det treffer et reelt problem: «tab-fatigue», som noen kaller det. Du sitter foran Kohya, glemmer ett avkrysningsboks gjemt under Networks-fanen, og timer med GPU-tid gikk til spille. Anima TrainFlow vil løse akkurat det problemet.

Hva er egentlig LoRA-trening?

Hvis du er ny på dette: LoRA står for Low-Rank Adaptation, og er en metode for å lære en AI-bildemodell å gjenkjenne et spesifikt utseende, stil eller objekt uten å trene hele modellen på nytt. Du gir den 10-30 bilder av det du vil lære den, og etter noen hundre treningssteg kan modellen generere nye bilder i den stilen – eller med det ansiktet, den figuren, eller det motivet.

Det er kraftig teknologi, men har tradisjonelt krevd at du navigerer verktøy som Kohya SS eller SimpleTuner. Disse er gode, men de er laget for brukere som allerede vet hva de driver med. Anima TrainFlow er laget for resten – og faktisk også for erfarne brukere som er lei av å jakte på den ene innstillingen som kan ødelegge et treningsløp. Du kan lese mer om teknologien bak i AI-ordlisten min der jeg forklarer begreper som LoRA, fine-tuning og diffusion.

Anima TrainFlow Gradio-grensesnitt med alle innstillinger på én side
Alle kritiske LoRA-parametere samlet på én side – ingen faner, ingen skjulte innstillinger

Hva gjør Anima TrainFlow annerledes?

Filosofien er enkel: 80% av parameterne i et LoRA-treningsverktøy er ting du aldri rører. De resterende 20% er det du faktisk endrer fra prosjekt til prosjekt. Anima TrainFlow samler bare de 20% på én side og lar resten håndteres i bakgrunnen med fornuftige standardverdier.

De fire viktigste tingene grensesnittet eksponerer er triggerfrase (det spesielle ordet som aktiverer LoRA-en i prompten din), Rank (kompleksiteten på adapteren, typisk 16-64), læringsrate og antall treningssteg. Det er ikke mer enn det. Ingen nettverksfaner, ingen optimizer-submenyer, ingen dropout-konfigurasjoner du aldri forstod.

I tillegg har verktøyet to funksjoner som faktisk hjelper i praksis:

  • Smart datasettanalyse: Verktøyet analyserer bildemappen din automatisk og beregner optimale oppløsninger og bucket-innstillinger. Du slipper å tenke på aspect ratio-matching manuelt.
  • Sanntidsforhåndsvisning: Mens treningen kjører, genereres eksempelbilder som oppdateres i galleriet. Du ser om retningen er riktig lenge før treningsløpet er ferdig.

Under panseret er det sd-scripts som faktisk gjør jobben – det samme rammeverket Kohya SS bygger på. Forskjellen er at Anima TrainFlow eksponerer et mye smalere sett av innstillinger via Gradio, og bruker Prodigy-optimalizatoren som håndterer læringsraten adaptivt. Det betyr at du slipper å tune læringsraten manuelt – Prodigy justerer seg selv basert på gradientene underveis.

Hvilke maskinvarekrav stilles?

Her er tallene direkte fra prosjektet:

  • VRAM: 6GB minimum (NVIDIA GPU)
  • OS: Windows 10/11
  • Lagring: ~5GB ledig plass, SSD anbefalt

6GB VRAM er et godt sted å sette grensen. Det inkluderer RTX 3060, RTX 4060 og mange eldre kort som RTX 2060 Super. Sammenlignet med full modelltrening, som kan kreve 16-24GB VRAM, er LoRA-metoden langt mer tilgjengelig – noe som er hele poenget med teknologien. Jeg har skrevet om hva du kan gjøre med ulik lokalhardware i artikkelen om Flux 2 og lokal bildegenerering.

Verktøyet er Windows-only, noe som er en begrensning for Linux-brukere. Mac støttes ikke – det er ikke overraskende siden Prodigy-optimalizatoren og sd-scripts-rammeverket er optimalisert for CUDA, som er NVIDIAs plattform. Apple Silicon har sine egne treningsverktøy (MLX-baserte alternativer), men det er en annen artikkel.

Forbruker-GPU RTX 3060 for lokal LoRA-trening med treningsgraf i bakgrunnen
En vanlig forbruker-GPU med 6GB VRAM er nok til å trene egne LoRA-modeller med Anima TrainFlow

Hvordan installerer du Anima TrainFlow?

Det er to veier inn, og den første er så enkel at det nesten er latterlig sammenlignet med å sette opp Kohya SS manuelt:

Portabel versjon (anbefalt): Last ned 1,7GB-arkivet fra GitHub-repositoriet, pakk det ut med 7-Zip, og kjør start_trainer.bat. Ferdig. Ingen Python-versjonsproblemer, ingen virtuelle miljøer som krangler med andre installasjoner, ingen avhengigheter du må rote med.

Manuell installasjon: Klon repositoriet fra GitHub, kjør Install_Requirements.bat, og deretter start_trainer.bat. Denne er for deg som vil ha full kontroll over hva som installeres.

Datasettforberedelse er minimalt: legg alle treningsbilder i én mappe. Støttede formater er .png, .jpg og .webp. Hvert bilde trenger en tilhørende .txt-fil med samme filnavn som inneholder tags eller bildebeskrivelse. Det er standard LoRA-workflow uansett hvilket verktøy du bruker.

Er Anima TrainFlow for nybegynnere eller erfarne?

Begge deler, men av ulike grunner. For nybegynnere er én-sides-grensesnittet en reell fordel. Det er færre steder å gjøre feil, og Prodigy-optimalizatoren fjerner den vanskeligste variabelen – læringsraten – fra ligningen. Du kan komme i gang med et rimelig resultat uten å forstå alle parameterne.

For erfarne brukere er argumentet annerledes. Noen ganger vil du bare ha et raskt, lavfriks treningsløp uten å sette opp et fullskala Kohya-prosjekt. Anima TrainFlow er det – en dedikert, lettvekts løsning for Anima 2B som ikke prøver å gjøre alt for alle modeller. Det er MIT-lisensiert, altså fullstendig gratis og åpen kildekode.

Begrensningen er at det kun støtter Anima 2B. Trener du på SDXL, Pony, eller nyere arkitekturer som HiDream, må du bruke andre verktøy. Anima TrainFlow er ikke ment å være universell – det er ment å gjøre én ting bra.

Hva er Anima 2B?

Anima 2B er en 2 milliarder parameter diffusjonsmodell spesifikt designet for portrettgenerering og konsistente karakterer. Den er optimalisert for realistiske ansikter og menneskefigurer – noe mange større modeller sliter med. Med bare 2 milliarder parametere er den også langt mer effektiv å kjøre lokalt enn fullskala SDXL-modeller som har betydelig større minnefotavtrykk.

Modellen er interessant fordi den representerer trenden mot spesialiserte modeller fremfor alt-i-ett-løsninger. I stedet for én stor modell som er «OK» på alt, er Anima 2B laget for å være god på én ting. Det er samme tenkning som du finner i fine-tunede språkmodeller – som jeg har skrevet om i artikkelen om fine-tunede modeller som slår frontier-API-er på smale oppgaver.

Kombinasjonen av en spesialisert basemodell (Anima 2B) og et dedikert treningsverktøy (TrainFlow) er fornuftig. Det er en helhetlig tilnærming til å gjøre personlig LoRA-trening tilgjengelig for folk med vanlig forbrukerhardware – og det er den typen open source-utvikling det er verdt å følge med på.

Legg igjen en kommentar

Din e-postadresse vil ikke bli publisert. Obligatoriske felt er merket med *

Meld deg på nyhetsbrevet

Få oppdateringer om AI nyhetene rett i inboxen!

Du liker kanskje denne også
Jan Sverre arbeider med Suno AI musikk-generering på datamaskinen, kreativt workspace med hodetelefoner

Suno AI – 150 Låter Testet: Hva Funker og Hva Er Bortkastet Tid

Jeg testet 150 Suno-låter og fant tydelige mønstre. Her er hva som faktisk gir kvalitet, og hva som bare kaster bort tid.
Jan Sverre med headphones og lydmikser i boardroom-møte med forvirrede executives

Suno AI Copyright 2026 – Opphavsrett og Rettigheter for AI-Musikk

Kan du tjene penger på Suno-musikk? Her er en praktisk gjennomgang av rettigheter, risiko og hva du bør avklare før publisering.
Jan Sverre riding a dinosaur in safari outfit, photorealistic AI-generated image demonstrating Nano Banana Pro capabilities

Jeg testet Nano Banana Pro: AI som faktisk skriver norsk i bilder

Endelig! En AI som kan generere norsk tekst i bilder med 94% nøyaktighet. Jeg testet Nano Banana Pro grundig – her er resultatene.
Jan Sverre styrer et digitalt kontrollpanel omgitt av Claude AI-symboler og glødende lysstriper i et mørkt rom

Claude AI – pris, funksjoner og norsk guide (2026)

Alt om Claude AI i 2026 – priser i norske kroner, Claude Pro vs Max, Claude Code, og ærlig sammenligning med ChatGPT. Komplett norsk guide fra en som bruker Claude daglig.