Innhold Vis
Suno v5.5 ble sluppet 26. mars 2026 og introduserer tre funksjoner jeg ikke har sett i noe annet AI-musikkverktøy, men som vi har ventet på lenge. Voices lar deg bruke din egen stemme i AI-generert musikk. Custom Models lar deg trene modellen på din personlige musikk-katalog. My Taste bygger en smaksprofil basert på hva du gjør i appen. Til sammen gjør dette Suno til et mye mer personlig verktøy enn det var for en måned siden.
Jeg har ikke fått testet v5.5 skikkelig ennå – det er mye som skjer akkurat nå – men jeg gleder meg til å grave i det. Særlig Voices-funksjonen er noe jeg vil prøve ut. Inntil da: her er alt du trenger å vite om hva som er nytt, hva det koster, og – ikke minst – hva du gir fra deg når du sier ja.
For det er noe å si ja til her. Og det er et poeng jeg kommer tilbake til.
Voices – din stemme i AI-musikken
Voices er den funksjonen som har fått mest oppmerksomhet, og det er ikke uten grunn. Tanken er enkel: du spiller inn stemmen din, og Suno bruker den i sangene du lager. Ikke en kopi av en kjendis, ikke en syntetisk AI-stemme – din stemme.
Prosessen krever mellom 30 sekunder og 4 minutter med lyd. Du kan spille inn a cappella direkte i appen, laste opp en sang der du synger med musikk i bakgrunnen (Suno splitter vokaler automatisk via stem splitting), eller ta opp noe i samme sjanger som den musikken du vil lage. Det siste er viktig – jo mer konteksten matcher, desto bedre resultat.
Verifikasjonssystemet er gjennomtenkt. Før Suno godtar stemmen din, må du lese en spesifikk setning høyt. Systemet krysssjekker dette mot det du har lastet opp for å bekrefte at stemmen faktisk tilhører deg. Voices er private – bare du kan bruke din egen stemme. En delefunksjon er varslet, men uten dato.
Under beta koster det 4 credits per sang – vesentlig lavere enn normalpris. Det er en god mulighet til å teste funksjonen billig. Voices krever Pro eller Premier-abonnement.
En audio-slider lar deg styre hvor mye stemmen din dominerer. Noen ganger vil du ha stemmen 100% i front, andre ganger kanskje 60% blandet med noe annet.

Men – hva sier du ja til?
Her er det punktet som fortjener mer oppmerksomhet enn det har fått i lanseringen. Når du bruker Voices, samtykker du til at Suno bruker stemmen din til å trene sine globale modeller. Det er ikke en privat silo der stemmen din bare leverer til dine egne sanger – den bidrar til å forbedre Sunos modeller for alle brukere.
Stemme er biometriske data under GDPR. Suno er et amerikansk selskap med servere utenfor EU. Samtykket du gir er globalt, og det bidrar til kommersiell modelltrening.
Nå er jeg ingen regulerings-entusiast, og jeg mener ikke at du ikke skal bruke Voices. Tvert imot – for mange er dette en fantastisk funksjon. Men du bør vite hva du takker ja til. Personvern er ikke bare et spørsmål om hva myndighetene bestemmer – det handler om informert valg. Og her gir Suno faktisk brukerne det valget, om enn i liten skrift.
Verifikasjonssystemet har også en potensiell svakhet: ifølge The Verge kan eksisterende AI-stemme-modeller av kjendiser potensielt lure systemet. Det er en reell begrensning Suno ikke har løst ennå.
Jeg har tidligere skrevet grundig om opphavsrett og rettigheter i Suno – samme prinsipp gjelder her. Les det fine printet.
Custom Models – tren AI på din signaturlyd
Custom Models er den funksjonen jeg tror vil bety mest for folk som allerede driver med musikk. Ideen er at du laster opp egne sanger – minimum 6, gjerne mer – og Suno trener en spesialisert versjon av v5.5-modellen på nettopp din musikk. Resultatet er en modell som fanger din stilistiske signatur.
Du kan ha opp til 3 Custom Models aktive samtidig. Det er nok til å separere mellom ulike prosjekter – kanskje én modell for det orkestrerte lydbildet du bruker i én kontekst, og en annen for noe mer elektronisk. Custom Models fungerer best med stilistisk homogen musikk. Blander du inn 10 ulike sjangre, blir modellen forvirret.
En ting er verdt å merke seg: dine kompositoriske vaner lagres som maskinlesbare filer på Sunos servere. Det er ikke mye annerledes enn hva Spotify vet om lyttevaner, men det er noe å ha i mente. Tilgjengelig for Pro, Premier og API-brukere.
For podkastere og YouTubere er dette særlig interessant. Har du 6 intromelodiutkast som alle har din signatur, kan du trene en modell som alltid produserer musikk i din stil – uten at det høres generisk ut.
My Taste – personalisering for alle
My Taste er den mest tilgjengelige av de tre nye funksjonene fordi den er gratis for alle – også de som ikke betaler. Suno bygger en smaksprofil basert på hva du lager i appen: hvilke stiler du returnerer til, hvilke sang-trekk som går igjen, hva du lytter til.
Profilen integreres i style-feltet via en «magic wand»-knapp. Trykk på den og Suno foreslår noe som matcher ditt mønster, i stedet for å starte fra blankt. «Jo mer du bruker Suno, desto mer forstår den deg», sier de selv.
Du kan se, redigere eller slette smaksprofilen din under kontoinnstillinger. Det er bra – det er transparens rundt hva appen faktisk vet om deg.

Lydkvalitet: hva er faktisk bedre?
v5.5 er Sunos beste modell hittil ifølge dem selv. Forbedringene inkluderer bedre vokalfrasering, mer emosjonell dybde, forbedret instrumentseparasjon og et bredere dynamisk spenn. Modellen er også bedre på «prompt adherence» – den gjør faktisk det du ber om i større grad enn v5.
Modellene er nå tre-nivå:
- v5.5 – beste kvalitet, kun Pro og Premier
- v5 – nest best, kun Pro og Premier
- v4.5 – raskere, lavere lydkvalitet, gratis-nivå
Stem splitting er nå 12-spors og skiller ut vokal, backing vocals, trommer, bass, gitar, keyboard, strenger, messing, treblås, perkusjon, synthesizer og effekter. Det er en kraftig funksjon for folk som vil redigere musikken videre i en DAW. Artikkelen min om Voice Personas fra desember tar opp hvordan stem splitting fungerer i praksis.
Hva koster det?
Ingen prisendring med v5.5. Prisene er uendret ifølge Sunos offisielle prisliste:
- Gratis – 50 credits per dag. Tilgang til My Taste. Ingen Voices eller Custom Models.
- Pro – ca. 88 kr/mnd (70 kr/mnd på årsplan). 2 500 credits. Voices + Custom Models inkludert.
- Premier – ca. 260 kr/mnd (210 kr/mnd på årsplan). 10 000 credits. Alt inkludert.
Credits forsvinner ved månedsslutt, unntatt kjøpte top-up credits. Voices koster 4 credits per sang under beta – vesentlig lavere enn det trolig vil koste etter beta er over.
For å sette det i perspektiv: 2 500 credits med Pro dekker rundt 625 standard-sanger per måned. Det er ganske mye musikk for 88 kroner.
Kontroversene som ikke forsvinner
Suno er fortsatt midt i pågående rettssaker fra Universal Music Group og Sony Music Entertainment, begge på 500 millioner dollar. Warner-saken er avgjort, men de to største gjenstår. En artist-koalisjon sendte i februar 2026 et åpent brev gjennom Music Technology Policy der de sammenligner Sunos treningsmetoder med et innbrudd på Louvre.
Jeg forstår frustrasjonen. Artister har ikke godkjent at musikken deres er brukt i treningsdata. Royalty-pooler fortynnes. Det er reelle konsekvenser for ekte mennesker.
Men «Say No to Suno»-kampanjen er drevet av interesseorganisasjoner. Markedet ser ut til å svare annerledes: lanserings-videoen hadde over 119 000 visninger på seks dager. Folk tar i bruk verktøyet, rettssaker eller ei. Det kommer ikke til å stoppe av seg selv – det løser seg gjennom forlik og nye lisensieringsmodeller, slik Warner-avtalen viser. Se min komplette guide til AI-musikk for mer kontekst om hvem som saksøker hvem og hva det faktisk betyr for deg som bruker.
Er v5.5 verdt å teste?
My Taste er gratis. Det er null grunn til ikke å prøve det.
Voices under beta til 4 credits per sang – det er ingenting. Har du Pro-abonnementet, er det en enkel test å gjøre. Trykk inn 30 sekunder med sang, lag en låt, hør om du liker resultatet.
Custom Models er mer for deg som har en musikalsk stil å bygge på. Seks låter er terskelen. Har du ikke det, er det ikke relevant ennå.
Det jeg er spent på å teste selv er Voices med norsk tekst. AI-sangvokal på norsk har vært ganske svakt historisk – det er ikke et AI-problem, det er treningsdataproblemet. Norsk er ikke akkurat overrepresentert i musikalske treningsdatasett. Men Voices bruker faktisk min stemme som referanse, ikke generiske vokaler. Det kan gjøre en forskjell. Det får jeg svare på når jeg endelig får tid til å teste ordentlig.