DOMANDE SENZA RISPOSTA: FUTURO, MUSICA, IA

Technology is incredible!

Abitante di Biancavilla, Pokémon Rosso e Pokémon Blu

Sembra che siano passati decenni da quando il più grosso argomento di discussione sull’industria musicale era rappresentato da discorsi su “il problema con Spotify e lo streaming”. Non che la cosa si sia magicamente risolta oggi, anzi: ve la ricordate tutta la débacle sui “finti artisti” ingaggiati dalla compagnia svedese per per produrre brani che si incastonassero a meraviglia tra le loro curated playlists così da drogare il numero degli ascolti e la revenue dei singoli, “veri” musicisti presenti in quelle stesse selezioni? Oppure, se avete seguito le notizie degli ultimi giorni, magari avrete fatto caso al fatto che sempre Spotify ha deciso di lanciare ufficialmente la sua “Discovery Mode“, per cui gli artisti possono decidere di diminuire la già irrisoria percentuale di royalties che sarebbero a loro dovute in cambio di una presenza più costante all’interno delle playlist algoritmiche; pagare per avere visibilità, in soldoni. Insomma, meglio non tornare su queste discussioni perché altrimenti questo articolo diventa uno sbrocco senza fine.

Paiono passati decenni, appunto. Questo perché nell’ultimo paio di anni, ma soprattutto negli ultimi mesi, un singolo argomento ha praticamente monopolizzato qualsiasi – qualsiasi – tipo di discussione che riguardasse anche solo lontanamente la tecnologia. Stiamo ovviamente parlando delle intelligenze artificiali, e nonostante versioni altrettanto sofisticate di esse siano parte della nostra esistenza quotidiana da anni, il loro impatto sul mercato pubblico è stato fragoroso anche e soprattutto in virtù delle potenzialità mostrate da software come ChatGPT e Dall-E. Ora, senza stare a scomodarci su questioni estremamente spinose e inutili ai fini di questo articolo come l’attendibilità di quello che viene prodotto da queste IA o i bias che vengono inevitabilmente amplificati dall’utilizzo improprio dei pesi adoperati nella costruzione della rete neurale, visto che siamo una rivista di musica, proviamo a concentrarci su quello che vuol dire effettivamente pensare a un futuro del panorama musicale dove le IA vengono utilizzate su larga scala.

Possiamo sul serio pensare a un futuro dove tutti possono scrivere musica grazie alle IA? Nì. La domanda da farsi non è se tutti potremo scrivere musica, ma quale musica sarà scritta. Anche solo senza cercare per qualche secondo nell’enorme archivio internettiano, riesco a ricordare distintamente il clamore che suscitò Bloom, l’app di “musica generativa” sviluppata da Brian Eno nel 2008, o anche solo il doodle di Google capace di scrivere da solo qualche battuta di un canone nello stile di Bach. Cercando un po’ più a fondo, invece, compare già un fitto sottobosco di software più o meno recenti come Amper o Boomy, che pescano da (presumibilmente) enormi database di strumenti, spartiti e umori per generare tramite poche informazioni fornite dall’utente tracce fatte e finite. Altri software, come invece fa Endel, non cercano nemmeno di fornire questo tipo di “libertà creativa” all’utente, e realizzano playlist generative di suoni “appositamente testati in laboratorio” per aiutare chi ascolta a concentrarsi di più sull’esercizio fisico, lo studio o il riposo.

Ora, non so quanto voi vi siate divertiti come me a cercare di “rompere” il più possibile le possibilità di questi progetti, ma due cose sono immediatamente evidenti: nei modelli con meno analisi a disposizione, le possibilità compositive del software inciampano vistosamente quando vengono fornite informazioni oltre la complessità standard per cui sono ideate. Provate a inserire un paio di diesis a caso nel doodle per Bach, ad esempio, e vi renderete conto di come le 306 composizioni analizzate non possano rendere giustizia alla ricchissima complessità tonale di uno dei più grandi autori della musica occidentale tutta (ma c’era anche da aspettarselo). Se invece andiamo a pescare nei progetti di Amper, Boomy ed Endel, i risultati si fanno più interessanti principalmente a causa della loro orizzontalità: non stupisce che le categorie di musica per cui queste IA vengano principalmente utilizzate siano le musiche d’ambiente, i beat lo-fi e il pop da classifica. Il “poco sforzo” necessario per realizzare soluzioni più complesse di un paio di synth accavallati l’uno sull’altro diviene esponenzialmente più complesso dal momento in cui le maglie della rete si allargano e allo stesso tempo si restringono: indicare l’uso di, per esempio, un determinato sintetizzatore per la creazione di un pezzo di un genere a cui non è solitamente associato creerà un conflitto che la IA non riesce a risolvere facilmente, producendo una strana amalgama che non funziona né in un modo né nell’altro. Ovviamente, trattandosi di sforzi ancora nella loro fase embrionale, è più che facile pensare alla possibilità che il paradigm shift di questi modelli sia ogni giorno più incombente; ma per ora, la complessità è ancora un osso troppo duro con cui confrontarsi ad armi pari. D’altronde, lo stesso CEO di Boomy aveva dichiarato poco tempo fa in un’intervista che nessuna delle canzoni prodotte dalla sua IA fosse “pronta per il mercato o per le playlist”. Perlomeno, non ancora.

Ora, ovviamente non c’è niente di male nella “musica orizzontale”: io stesso mi considero un grande estimatore di tutta una serie di dischi che cerca di fare tantissimo con pochissimo (i miei compagni di merende qui mi prendono per scemo perché sono un fan di Time Machines dei Coil, per dirne una). Ma due riflessioni emergono in maniera preponderante ogni qualvolta mi ritrovo a pensare alle possibilità offerte da una tale democratizzazione automatizzata di questi ambienti musicali: la prima riguardante l’uso da parte degli utenti, e la seconda riguardo l’archiviazione di questo materiale e le sue conseguenze.

Appare evidente (e nel caso di Endel è proprio dichiarato) che la musica composta dalle IA sia perlopiù ricercata da un bacino d’utenza che ha bisogno di un prodotto sonoro che tenga impegnate le orecchie più che creare un’opera d’arte; o almeno, questa sembra essere la realtà delle cose di oggi. La possibilità di una commodification della musica è un trend che da molti anni sta acquisendo sempre più interesse anche da parte dei grandi gruppi tech e non, partendo anche da casi celebri come 45:33 degli LCD Soundsystem, che la Nike aveva commissionato al gruppo nel 2007 e marketizzato come un accompagnamento perfetto al jogging. L’esempio più celebre degli ultimi tempi, però, è sempre quel tremendo lofi hip hop radio – beats to relax/study to, fenomeno internettiano per eccellenza che trasmette 24/7 campioni jazz soffusi e pattern ritmici dozzinali. Qui si giunge alla più paradossale delle conseguenze, visto che semanticamente parlando, è lo stesso titolo a porre in evidenza quale sia il punto del canale: non è più l’artista a essere al centro della creazione musicale, ma la sua funzione extra-musicale. Il creator del beat viene liquidato a link secondari, rimandi ipertestuali che anche se sicuramente di successo non possono paragonarsi alla fluidità esperienziale di aprire youtube e godersi una mezz’ora di hip hop che, senza strappi o deviazioni, scorre come un rumore di fondo dietro le nostre attività. Un altro aspetto veramente affascinante, e per fortuna ad oggi esclusivo di questa fumosa “radio online” è poi il suo aspetto comunitario: essendo basata sull’interfaccia di youtube, il riquadro della chat rimane costantemente attivo e aperto a qualunque utente registrato, che è libero di utilizzare il proprio tempo libero o di formazione… sulla piattaforma, invece che rilassarsi o studiare proprio come la funzione del canale proporrebbe. Il cortocircuito dell’attenzione sballotta gli spettatori di lofi hiphop radio in una condizione liminale a metà tra il totale disinteresse per l’ascolto e la necessità terminally online di interagire costantemente con l’interfaccia che vorrebbe, idealmente, far distogliere lo sguardo. E qui stiamo comunque ancora parlando di (presumibilmente) beatmakers umani, come è umano il gestore del canale, che credo comunque faccia molto poco oltre che a pescare dai vari soundcloud questo o quel brano. Cosa succede quando questa linea di demarcazione si fa sempre più sfocata, quando la selezione e la creazione si fanno automatizzati all’estremo?

Il mercato del tempo quindi, e lo avevo accennato anche nella recensione di quella palla di Does Spring Hide Its Joy, si fa sempre più bastardamente competitivo e nessuno tranne noi poveracci sfigati sembra avere più tempo per mettersi a sedere e ascoltare un disco, figuriamoci un disco complesso o che richiede la nostra attenzione in ogni momento. La musica prodotta con la IA è assolutamente standardizzata, pronta a essere ingurgitata e cacata dall’utente perché il suo scopo è quello della ambient music per come l’aveva formulata (guarda un po’) Brian Eno negli anni ’70: esistere discretamente senza farsi riconoscere. Eno stesso aveva fallito nell’intento, ma questo perché la cifra stilistica e autoriale di un brano come il primo movimento di Music for Airports rimane permanentemente marchiato a fuoco nella testa dell’ascoltatore. Cosa succede quando vengono create migliaia di Musics for Airports? E come possiamo pensare che la “cifra autoriale”, la complessità e l’unicità di cui abbiamo parlato prima, rimangano lo standard immutabile tramite cui compartimentalizzare questi mondi così simili e differenti, quando già da qualche anno, e con dataset molto più limitati di quelli che oggi promette l’industria, abbiamo ricostruzioni di brani incompiuti di Schubert e Beethoven? David Boyle, l’autore di un interessante libro su come utilizzare la IA nelle carriere artistiche e nella crescita dei propri brand, definisce i software uno “strumento per pensare” piuttosto che un rimpiazzo effettivo delle carriere creative, dove l’elemento umano diventa insostituibile e irreplicabile. Viene da chiedersi se sarà effettivamente così, ma il raggiungimento della complessità accennato poco sopra pende come una scure sulle divisioni tra macchine e umanità. A quel punto, l’unico modo per ingabbiare le IA e ridare le redini del controllo agli autori sarebbe quello di utilizzarli come strumenti tarati al millimetro, o addirittura creare nuovi modelli da zero come aveva fatto Holly Herndon per il suo PROTO. Di certo, una soluzione semplice non si vede all’orizzonte, specialmente quando si ragiona in termini di comodità di fronte alla confortante sensazione di lasciar fare tutto a una scatola misteriosa che sa fare tutto quello che le chiedi.

Poi, l’archiviazione: chiediamoci per un istante da dove queste IA attingano per i loro language models. Il mondo della musica è, come per tutti quanti i campi dell’arte e dell’intrattenimento nell’epoca del web globale e globalizzato, in costante espansione: migliaia di nuove uscite, amatoriali o meno, vedono la luce del giorno ogni giorno. Questo enorme database, che già di per sé crea first world problems annosi come “c’è troppa musica da scoprire!”, andrebbe costantemente ricalibrato sulla base di quella che sarebbe la enorme ondata di contenuto personalizzato prodotto dalle IA; e non possiamo nemmeno reputare che le stesse IA sappiano filtrare arbitrariamente tra contenuto scritto da modelli concorrenti o da diverse iterazioni dello stesso software… La possibilità di ritrovarsi di fronte a una “Coldplay-fication” della musica, come l’ha definita Sean Adams di Drowned in Sound in un episodio del suo podcast è più che reale. L’appiattimento dell’orizzonte deriverebbe dal continuo ricicciamento delle stesse idee, che creerebbero una casistica di formule che le IA seguirebbero pedissequamente per accontentare il gusto dell’utente medio, un suggeritore-ascoltatore che spingerebbe sempre verso un prodotto “originale” per sé ma che di originale conterrebbe davvero poco, quando raffrontato all’insieme di riferimento. Ma questa prospettiva inquietante e deprimente deve essere considerata come una colpa delle IA o degli ascoltatori? Ovviamente, questo tipo di interrogativi esula già da alcune conversazioni come il fatto che “gli artisti saranno sommersi da questa catasta di musica IA e non potranno più campare”: non è che se la passino troppo bene già adesso. Al contrario, l’esplosione di un modello veramente democratico – e non è ancora questo il caso, nonostante quanto abbia affermato qualche paragrafo più in alto lasci pensare che la realtà attuale sia così – riuscirebbe probabilmente a tirare via dall’occhio di bue quella minuscola élite di musicisti che fagocita brutalmente la maggior parte del mercato, principalmente grazie al proprio brand invece che per l’effettiva qualità della musica proposta. Certo, probabilmente staremmo tirando giù dalla torre anche gli indipendenti duri e puri, ma non può andare molto peggio di così, no? È tempo di ritornare a esperimenti ancora più basilari: mentre scrivo questo pezzo continuo a interfacciarmi su una base quasi quotidiana con ChatGPT, l’elefante nella stanza di questa conversazione. Alcune personalità all’interno dell’industria stanno iniziando a valutare la possibilità di utilizzare le IA per automatizzare e raffinare alcune delle tecniche di amministrazione dei propri artisti. Organizzare campagne social, predire quando e come vendere questo o quel disco, a chi farlo sentire; anche qui, è facile immaginare che il mondo di domani (che alla fine è già oggi) porti a uno stravolgimento di tutti quei paradigmi tipici dell’industria musicale e che andrebbero ricalibrati in accordo con la possibilità di vedere una buona parte di tutti quegli strumenti che erano diventati un male necessario sotto l’egida dell’industria musicale novecentesca completamente cancellata da un paio di computer che svarionano e che possono essere convinti che due più due fa cinque. I miei prompt con ChatGPT cercano di spingersi in più direzioni possibili, provo a farlo parlare di tante cose, e alla fine mi chiedo se possa scrivere una canzone. A Nick Cave l’idea non era piaciuta, ma d’altronde Nick Cave è qualche anno che sembra diventato una testa di cazzo permalosetta quando si mette in dubbio il suo lavoro. E comunque gli avevano chiesto di scrivere un testo, io voglio vedere come intende la musica. Un po’ di teoria musicale la conosco, mi sono fatto un’idea su quanto debbano essere precise le richieste che faccio all’IA; faccio una domanda semplice e molto vaga. “Quale giro di accordi posso usare per scrivere una canzone pop che sfondi in classifica? Quali strumenti devo utilizzare?”. La risposta dell’IA è la four chord song. Mi metto a ridere davanti allo schermo. Forse c’eravamo tutti già cascati.

Condividi questo articolo:
Jacopo Norcini Pala
Jacopo Norcini Pala