Tastatur

AI-verktøy i den kreative fasen

Hvordan optimalisere den kreative prosessen?

I denne guiden undersøker låtskriver og produsent Joakim With Steen hva som skjer når kunstig intelligens (AI) brukes i idéfasen.

Han ønsker å forstå hvordan AI kan bidra til å realisere egne idéer, visjoner og tanker, snarere enn kun å vise frem hva AI kan gjøre.

Av Joakim With Steen

Sist oppdatert: 29. august, 2024

Intro

Idéfasen er den delen av produksjonsprosessen hvor AI oppfattes som ekstra «nytt», og det er til dette formålet det nå dukker opp mest nye AI-applikasjoner som ikke likner like mye på det man har sett før.

Jeg skal gå gjennom en del verktøy jeg har testet den siste tiden.

Joakim With Steen har blant annet vunnet MGP og deltatt i Eurovision med artistprosjektet JOWST i 2018 og som låtskriver for Polen (!) så sent som i 2022. Foto: Tord Litleskare

Joakim With Steen har blant annet vunnet MGP og deltatt i Eurovision med artistprosjektet JOWST i 2018 og som låtskriver for Polen (!) så sent som i 2022.
Foto: Tord Litleskare

Kort om Joakim

Jeg har jobbet aktivt med låtskriving de siste seks årene, og har laget flere hundre låter og skisser sammen med nesten like mange låtskrivere, artister og produsenter. Trives best med samarbeid i den kreative prosessen, ovenfor å jobbe alene.

Kreativt har min hovedrolle vært å være produsent, hvor jeg også bidrar til låtskrivingen. Selv synes jeg min styrke som låtskriver ligger i konseptutvikling. Jeg er mer fokusert på det konseptuelle og overordnede, og har en mer flytende tilnærming sammenlignet med for eksempel en tekstforfatter som primært fokuserer på tekst, eller en topliner som primært fokuserer på melodi.

Jeg har stor interesse for ny teknologi og tester stadig det nyeste innen programvare og plugins, særlig de som forbedrer arbeidsflyten og lar kreativiteten blomstre best mulig.

Moises

Dette er brukergrensesnittet på låtskriverapplikasjonen til Moises, via nettleser. Foto: Skjermdump/Moises

Dette er brukergrensesnittet på låtskriverapplikasjonen til Moises, via nettleser.
Foto: Skjermdump/Moises

Moises er en slags «låtskriverassistent», som foreslår rim, teller stavelser og plasserer rimet i enden av linjer med gitte antall stavelser.

Man kan også velge stemning på låta, og forslagene endres deretter.

Dette er etter min mening mye mer interessant og fint for workflow enn det å jobbe i notater, Word eller Google Docs, med for eksempel RhymeZone i et separat vindu i en nettleser.

Se et eksempel på en tekst jeg laget i Moises her.

Riffusion

Skriv inn en linje, og få en melodi tilbake i nettleseren. Foto: Skjermdump/Riffusion

Skriv inn en linje, og få en melodi tilbake i nettleseren.
Foto: Skjermdump/Riffusion

Riffusion lager melodi (og et passende komp) til en tekst du skriver.

Hør et eksempel her.

Suno

Her genereres musikk basert på tekst og andre tilvalg via applikasjon i nettleseren.  Foto: Skjermdump/Suno

Her genereres musikk basert på tekst og andre tilvalg via applikasjon i nettleseren.
Foto: Skjermdump/Suno

Suno lager musikk basert på prompts og sangtekst, enten «låtbeskrivelse» eller en kombinasjon av dette og sangtekst.

Man kan også velge å lage en instrumental, eller ta utgangspunkt i en tittel.

Jeg lagde dette og dette eksempelet på et par minutter, og synes selv det var bra og inspirerende. Jeg bestemte meg for å trykke på «extend» på det første eksempelet, endret tittelen til «The Sound of Love» og fikk dette.

Tips

For å jobbe videre med disse eksemplene, i form av stems, er det nødvendig å laste ned resultatet, og så laste det opp igjen i en stem-splitter. Dette er antagelig det som det kommer mest lignende tjenester på nå for tiden. Det er mange nettsteder, blant annet flere av de jeg allerede nevner her, som tilbyr denne tjenesten. Jeg endte opp med å bruke programmet RipX DAW, som jeg skriver om litt lenger nede.

Udio

Her testes Udio, med egenskrevet tekst i nettleser-applikasjonen.  Foto: Skjermdump/Udio

Her testes Udio, med egenskrevet tekst i nettleser-applikasjonen.
Foto: Skjermdump/Udio

Udio genererer all type musikk (instrumentalt eller med vokal) basert på tekst og diverse tilvalg. Du kan også laste opp musikk/lyd som den skal basere seg på. Denne tjenesten er veldig lik Suno, men gir andre resultater.

Jeg lagde dette og dette eksempelet. Etter å ha forandret innstillingene via «remix»-knappen på det andre eksempelet, fikk jeg dette og dette resultatet. Da jeg trykket på «extend» på den siste, fikk jeg dette resultatet (hør spesielt på slutten som jeg valgte at skulle genereres automatisk av AI).

Tips

Kreativt er Udio veldig lik Suno, selv om Udio kanskje er bedre på enkelte sjangere og ting som gjerne skal høres mer organisk ut. Om du liker en av disse er det verdt å teste begge, for å se hvilken du skal investere mer tid og eventuelt penger i.

RipX DAW

Eksempelbilde av flerstemte vokalspor, i programvaren installert på maskinen. Foto: Skjermdump/RipX DAW

Eksempelbilde av flerstemte vokalspor, i programvaren installert på maskinen.
Foto: Skjermdump/RipX DAW

Det jeg bruker RipX DAW til forklares godt i denne posten.

Helt generelt bruker jeg denne applikasjonen for å analysere, splitte, bearbeide og eksportere stems fra lydfiler jeg genererer med AI. Den lar deg altså hente ut enkeltlyder/spor fra en produksjon (én lydfil med alle lyder), som er en fin funksjon som kompletterer andre AI-verktøy som ikke gir deg separate spor.

Tips

En grunn til at enkelte AI-verktøy ikke gir deg separate spor (stems) kan være fordi den genererer noe som ligner på «snapshots» av musikk (frekvenser), som den er trent på. Det er altså ikke nødvendigvis en bassgitar sammen med et piano som spiller noe konkret. For eksempel er Riffusion ganske så «blurry» i sine instrumentalspor. Hvert enkelt sekund høres noenlunde ekte ut, men det er sjeldent en hel lyd (som i et anslag, sustain og decay, eventuelt med klang og ekko).

Emergent Drums 2

Plugin, åpnet inne i et DAW. Spilles live uten latency.  Foto: Skjermdump/Emergent Drums 2

Plugin, åpnet inne i et DAW. Spilles live uten latency.
Foto: Skjermdump/Emergent Drums 2

Emergent Drums 2 er en generativ trommemaskin, som genererer tromme-lignende lyder, basert på synth-lignende parametre og støy. Det er lagt opp til å lage et trommemaskin oppsett, med seksten lyder, fordelt på 4X4 visuelle pads.

Lydene som genereres er i stor grad til å kjenne igjen, og man kan gå ut ifra en preset, og så ved hjelp av AI, generere og forandre lydene en og en.

Stable Audio

Brukergrensesnittet til Stable Audio. Både enkelt og avansert. Foto: Skjermdump/Stable Audio

Brukergrensesnittet til Stable Audio. Både enkelt og avansert.
Foto: Skjermdump/Stable Audio

Du kan jobbe med Stable Audio via tekst eller lyd.

I første tilfelle vil AI-modellen sende ut lyd basert på instruksjonene du gir den, for eksempel sjanger, undersjanger, stemning og instrumenttype.

Du kan også laste opp lydopptak eller ta direkteopptak i Stable Audio, og bruke disse videre.

Co-Producer

Slik ser det ut når man har trykket «generate». Foto: Skjermdump/Co-Producer

Slik ser det ut når man har trykket «generate».
Foto: Skjermdump/Co-Producer

Co-Producer er en samplepakke-generator.

Her beskriver du hva du vil ha, også brukes AI til å analysere det du mener/beskriver, for å så finne samples og loops som matcher og prosesserer dem for å passe sammen. Til slutt får du høre fire resultater og kan gi tommel opp eller ned for å lære verktøyet hva du liker.

Dette påvirker også hva du får senere.

ChatGPT

En oppsummering gjort av ChatGPT selv, om hva denne GPT-en er trent for å gjøre.  Foto: Skjermdump/ChatGPT

En oppsummering gjort av ChatGPT selv, om hva denne GPT-en er trent for å gjøre.
Foto: Skjermdump/ChatGPT

ChatGPT er et allsidig verktøy som kan hjelpe deg i din kreative prosess når du skriver nye låter, og utvikler nye idéer.

For de som ikke har brukt slike AI-verktøy før, kan ChatGPT bidra til å organisere tanker, generere ideer og gi nyttige tilbakemeldinger på tankene dine, som kanskje vil gjenspeiles i tekstene dine.

Jeg har testet både gratisversjonen og et såkalt plus-abonnement. Fordelen med sistnevnte er at du får tilgang til å kunne lage (instruere, trene og modifisere) din egen GPT.

Selv laget jeg en GPT som jeg kaller for «Co-writer». Denne vet selvfølgelig alt som OpenAI allerede vet, men i tillegg til dette har jeg lagt inn instruksjoner som ligger inne før hvem som helst starter en ny chat med denne GPTen.

Du og alle med link kan bruke denne her (merk at du også må ha et plus-abonnement for å bruke denne og andre modifiserte chatter laget av andre).

Tekstlikheter

I et at mine prosjekter, hvor jeg lagde en låt med stor hjelp fra ChatGPT, ville jeg bruke linjen «ice ice baby» som en liten adlib, for å referere til «vanilje». Dette flagget ChatGPT og påpekte at det var identisk med en linje i Vanilla Ice sin låt og at jeg burde vurdere å bruke noe annet. ChatGPT er altså klar over låttekster som finnes fra før, og forholder seg til dem. Kanskje derfor er det automatisk litt sånne klisjé-aktige linjer som kommer ved første forsøk om du ønsker å få ChatGPT til å lage en låt kun basert på for eksempel en tittel.

Musicfy

En oversikt over noen utvalgte stemmer og instrumenter du kan konvertere ditt opptak til.  Foto: Skjermdump/Musicfy

En oversikt over noen utvalgte stemmer og instrumenter du kan konvertere ditt opptak til.
Foto: Skjermdump/Musicfy

Musicfy er AI-verktøy som har forskjellige funksjoner: «Stem splitter», «text-to-music» og den funksjonen jeg tar for meg i denne guiden: «Convert voice» - endre en stemme til en annen.

Her kan du ta opp din egen stemme direkte inn i programvaren du åpner i nettleseren, og så konvertere den til noen som høres ut som et annet kjønn, en annen alder med en annen stil. Eller til et instrument.

Om du vil ha det gøy, kan du sjekke hvordan låta di ville hørtes ut om Eminem var den som sang.

Info

Det er ikke dette (ref. Eminem) jeg bruker Musicfy til. Dette er gjerne kult å teste, men du kan ikke lovlig bruke resultatet i en utgivelse. Grunnen til at Musicfy er et lovlig verktøy til stemmekonvertering, er at de har mange trente AI-modeller som man betaler en lisens for å bruke. Skaperen av disse AI modellene har gjerne også brukt to forskjellige stemmer for å trene én stemme, som også kanskje gjør denne mer etisk riktig å bruke. Jeg har brukt denne for å endre min stemme til en annen.

Motivasjonen min for å bruke denne tjenesten, var et jeg tenkte jeg kunne få min dårlige sangstemme til å høres kulere/bedre ut.

Fungerer det? Både ja og nei

Sononym

Eksempelbilde av åpen programvare, installert lokalt på maskinen.  Foto: Skjermdump/Sononym

Eksempelbilde av åpen programvare, installert lokalt på maskinen.
Foto: Skjermdump/Sononym

Den relevante funksjonen som jeg fant mest unik og interessant i Sononym, var at jeg kunne laste opp en lydfil, eller ta opp en lydfil direkte i programmet. Enten ved å velge min iPhone som opptakskilde, eller ved å eksportere noe relevant fra mitt prosjekt, som jeg da kunne slippe inn i programmet.

Den analyserer så lyden, for å så kunne sortere alle lydene du har lagret på din egen maskin, for å kunne forslå hvilke samples og loops som matcher best. Enten generelt, eller basert på amplitude, pitch, spectrum og timbre.

Det jeg fant mest interessant var å sortere resultatene etter timbre. Da det er lett å endre volum (amplitude) og til dels pitch.

Soundraw

Slik ser det ut når du har generert musikk, som du så kan rearrangere i nettleseren. Foto: Skjermdump/Soundraw

Slik ser det ut når du har generert musikk, som du så kan rearrangere i nettleseren.
Foto: Skjermdump/Soundraw

I Soundraw kan man bruke enkle parametere som sjanger, «mood» og lignende.

Men da jeg fant noe jeg syntes var fint, som jeg kunne tatt videre, fant jeg ut at dette var musikk som allerede var generert for andre. Ved å bruke appen Shazam fant jeg en utgitt låt som brukte det samme.

Derfor var det uaktuelt å ta dette med videre.

Jeg valgte å ikke teste dette videre fordi jeg ikke følte det hjalp meg å være kreativ. Kanskje litt, men den mengden kreativitet som kom var et resultat av noe som er like uoriginalt som en loop eller en songstarter via Splice.

Soundraw ser jeg derfor mer som et godt alternativ for eksempel for en rapper som normalt ville kjøpt en beat via YouTube eller BeatStars.

Til slutt

Det jeg ønsker å være bevisst på når jeg bruker disse verktøyene, er om de har påvirket resultatet i så stor grad at jeg som opphavsperson ikke føler at jeg kan stå inne for å kreve 100% av opphavsrettighetene på verket.

Det kan skje om det som blir laget er eller blir potensielt uoriginalt (ikke unikt). For det kunne like gjerne ha blitt laget for noen andre, eller det kan lages for noen andre i ettertid.

Gi oss tilbakemelding!

Dersom du oppdager feil, har kommentarer eller innspill, hører vi mer enn gjerne fra deg!

hei@musikkontoret.no

Forbehold

Vi jobber hardt for å levere innhold som til en hver tid er oppdatert og riktig. Det kan likevel hende at artikler på Musikkontoret.no inneholder feil og mangler.

I slike tilfeller står ikke Musikkontoret ansvarlig for eventuelle utfordringer eller problemer dette måtte forårsake.