73 − = sixty five

Chiunque abbia visto un capolavoro chiamato “Ghost in the Shell” o si sia appassionato a una serie molto ben fatta come Westworld, avrà già notato che quando la complessità di un’AI (intelligenza artificiale) è talmente elevata da far emergere una coscienza, si può arrivare ad un punto in cui la linea tra vivo e non-vivo si fa progressivamente più sottile.

Purtroppo o per fortuna non siamo ancora arrivati a quel punto. Ma di musica completamente artificiale già ne esiste, da qualche anno. Ci sono AI che compongono musica pop, alcune che compongono musica classica, e in Giappone la cosa è estesa fino al punto in cui esistono vere e proprie popstar virutali come Hatsune Miku che spopolano e addirittura fanno tour sotto forma di avatar, e sono anche particolarmente seguite ed apprezzate. Si sa, il Giappone è un paese che tecnologicamente sta avanti a tutti di qualche decade e non manca mai di stupire con i suoi mix di avanguardia ed eccentricità.

Facendo invece un passo indietro di almeno un paio di decadi, ricordiamo i famosi casi di campioni di scacchi che sfidano computer, in particolare su tutte la sfida tra il campione russo Kasparov e il computer Deep Blue della IBM. Per poter mettere in atto quelle difficilissime partite, tra cui qualcuna finita con la sconfitta del giocatore umano, è stato sufficiente installare nella macchina una specie di “firmware” di regole, un algoritmo: delle istruzioni da seguire.

Ma quello fu solo l’inizio. Una AI è ben oltre un programma. Una grande forza motrice per l’intelligenza artificiale è proprio la capacità di imparare in base all’esperienza: nel senso che gli input che la macchina riceve sono informazioni che poi possono essere utilizzate dalle capacità di processamento ed eleborazione della macchina stessa per creare nuovi collegamenti, nuove informazioni e utilizzare tutto questo per le interazioni future con l’esterno. In parole povere: la macchina fa un esperienza e impara da questa.

Ecco una traccia pop composta da una intelligenza artificiale.

Se avete avuto la pazienza di ascoltarla per intero, avrete notato quanto possa tranquillamente essere scambiata per una delle mille tracce pop che vengono sfornate quotidianamente e utilizzate per pubblicità, sigle di programmi TV, videogiochi, sottofondi di negozi e altre situazioni di consumo. Non c’è niente in questa traccia che palesi direttamente, esplicitamente la natura artificiale della composizione, a meno che non ci si voglia invorticare in un discorso infinito se quel brano comunichi o meno qualcosa all’ascoltatore. Sarebbe quello il punto, ma sarebbe anche troppo personale per rendere utile discuterne.

Il fatto inquietante, comunque, è che il brano suona esattamente come le canzoni qualsiasi, proprio quelle che ci vengono date in pasto tutti i giorni.

Abbiamo un prodotto costituito da una lunghezza più o meno da radio edit, elaborato con le regole della musica occidentale, fatto di strofa, ritornello, scala maggiore o minore, un testo qualsiasi e una lucidatina finale, magari con tanto di mastering artificiale di Landr.

Non c’è niente di dispregiativo in questo quadretto: è solo un’estrema sintesi di ciò che si può fare con mezzi unicamente artificiali e con il massimo che algoritmi di “deep learning” possono osare al momento attuale per produrre un brano musicale senza intervento umano.

Non volendo buttarla solo sul pop (altrimenti il bias che viene da una non spiccata sintonia con il genere potrebbe essere troppo influente), il discorso si potrebbe applicare anche alla musica classica, visto che esiste un’intelligenza artificiale denominata AIVA che ha composto un intero album di movimenti per orchestra, piano solo e altri strumenti. AIVA sarebbe la prima AI a cui è stato riconosciuto lo status di “compositore”, da parte della SACEM (un po’ come la SIAE, ma per il Lussemburgo – paese dove AIVA è stata progettata).

Ogni impressione che sorge dall’ascolto, torniamo a ripetere, è puramente personale. Ognuno sarà libero di vedere o meno in questa musica – e naturalmente in quella umana – l’assenza totale di esperienza emotiva, o al contrario una carica emotiva molto forte, o qualsiasi sfumatura nel mezzo.

Però un’idea rimane. Se la musica generata da una AI e un qualsiasi brano da classifica pop ci paiono oggi così vicine, siamo portati ancora di più a classificare certa musica di consumo come un passo precedente lo status di musica diciamo “artistica”. Dove per “artistico” si può intendere il tentativo di comunicare qualcosa con spirito critico e di sperimentazione tecnica o concettuale – capacità finora conosciuta solamente nell’essere umano. Come se quella musica più easy listening e “rudimentale” fosse allo stesso tempo un abbozzo, materia prima indifferenziata, uno stato meno elaborato di un terreno di coltura, da cui plasmare qualcosa di più sottile, complesso e specifico. Probabilmente quando le macchine sapranno cogliere quella necessità di andare più nello specifico, concettualmente, emotivamente, esistenzialmente, probabilmente staranno parlando alla nostra anima, alla nostra emotività. E potremo iniziare a chiederci se siano vive, se ci sentano, se possano comunicare con noi. Quello di AIVA è sicuramente un gradino salito in quella direzione. Attendiamo i primi test di Turing.