sixty five + = seventy

Artista del suono, ingegnere audio, insegnante, ricercatore e sviluppatore di nuove tecnologie: Parkett intervista Giorgio Sancristoforo.

Giorgio Sancristoforo, milanese d’origine, fa parte di quel mondo di innovatori che trasformano l’esperienza musicale e tecnologica attraverso dinamiche che non tutti conoscono, di cui in Italia non si parla, perchè risiedono spesso solo nelle università o in ambienti che non generano l’interesse delle grandi masse. Giorgio, fa parte di quella schiera di geniali pionieri, dietro i quali si muovono le menti complesse del mondo della pubblicità che guardate, dei software che utilizzate, della musica che ascoltate (o ascolterete) e delle idee che forse, svilupperete.

Membro del Contemporary Music Center AGON di Milano, del Prisma Group e docente di Sound Design e Sound Synthesis presso il SAE Institute di Milano, Giorgio Sancristoforo è autore di alcune nuove tecniche di sintesi sonora: come il Triple Axis Modal Synthesis e l’Additive Tropical Synthesis, sviluppato insieme al matematico italiano Cristiano Bocci, dell’Università di Siena.

Ha scritto numerosi software per la produzione di musica sperimentale utilizzati da artisti come Ben Frost, Richie Hawtin, Ryuichi Sakamoto e molti altri. Ha collaborato con università e compositori in più di quaranta paesi in tutto il mondo.

È la mente dietro i documentari Tech Stuff con l’alias Tobor Experiment usciti su QOOB a metà degli anni 2000 e finiti in un libro ed un DVD; distribuiti da Isdn Edizioni sotto la supervisione del gruppo “Il Saggiatore”, diretto da Massimo Coppola (Brand:New, Pavlov, Avere Ventanni).

Il suo nome può essere abbinato a studi come: musica generativa, melodie paradossali auto generate, armonie aumentate dove la volontà del compositore agisce come mezzo di osservazione, rumore cosciente, modellazione di sorgenti sonore con risonatori e molto, molto altro. Ed è un onore per noi oggi presentarvi questa lunga intervista a Giorgio Sancristoforo.

Abbiamo studiato per qualche tempo il tuo percorso lavorativo, e la complessa varietà di ambiti legati al suono e alla musica dentro il quale ti abbiamo trovato, esce da ogni immaginario possibile. Dalla pubblicazione di documentari allo sviluppo di software, dalla pubblicità alla cattedra all’Istituto SAE di Milano. Tralasciando gli innumerevoli progetti che portano il tuo nome in giro per il mondo. Un percorso il tuo che in pochi attualmente in Italia possono vantare. Senza dilungarci noi sulle tue esperienze, partiamo da uno dei tuoi ultimi lavori come musicista e che è stato pubblicato recentemente: Machine Translations sotto l’alias Ooame. Un’album la cui descrizione anticipa incuriosendo molto l’ascolto:

A set of pieces about beauty, disintegration and misunderstandings. Served with exotic sound synthesis and artificial intelligences. A labour of love for the ghost in the machine“. 

Composto con orgoglio su Linux, a Milano e registrato dal vivo tra il 2017 e il 2018. Raccontaci tutto.

Machine Translations nasce come un concept album sulle ambiguità e gli errori delle traduzioni linguistiche computerizzate. Quest’anno un’esperienza particolarmente segnante con un’amica Giapponese in difficoltà, mi ha costretto a usare Google Translate ai limiti della tecnologia e dell’esaurimento nervoso. A un certo punto ho iniziato a vedere il lavoro di composizione algoritmica come una metafora della traduzione automatica e ho cominciato ad applicare il machine learning per il riconoscimento del gesto, trovando un certo gusto per gli errori di interpretazione che creavano nuovi significati e nuovi (inaspettati) risultati. Come nel lavoro precedente firmato come Ooame (che in giapponese significa grande temporale o acquazzone), ho tentato di dare vita a una convivenza fra struttura e disintegrazione della struttura, fra glitch e armonia, andando a cercare nei risultati di diverse proposizioni generative, quel ghost in the machine, quell’intelligenza nella macchina da cui sono così tremendamente affascinato. Ho formalizzato inoltre quelli che potremmo definire i “ritmi di Poisson“, generati in base a una specifica forma di distribuzione statistica dei numeri. E al di là di teorie e scelte poetiche, Machine Translation, come ho tenuto a precisare, è interamente realizzato su Linux su un single board computer UdooX86. È una piccola conquista di libertà da Apple che dopo vent’anni inizia a darmi un certo senso di soffocamento da Grande Fratello, come per i social, che mio malgrado sono costretto a usare. Similmente alla release precedente, Machine Translations fa solo uso di sintesi digitale e software custom. Questa volta però nasce tutto dall’opensource.

Credo che i tempi siano maturi ormai per poter guardare a Linux con fiducia e speranza per quello che concerne la produzione artistica. È tempo che certi ostracismi e diffidenza da parte delle industrie del software e delle interfacce audio, finiscano una volta per tutte perché oggi Linux è un sistema operativo adatto a chiunque e non ti stressa ogni giorno con aggiornamenti che renderanno obsoleta la tua macchina, nè con servizi di cloud o assistenti vocali e montagne di software inutile (o maligno) che gira in background mentre crediamo di usare tutta la potenza dei nostri computer.

Se vuoi, Machine Translations è un disco politico. Politica dei computer e dei software. Credo che oggi più che mai l’arte abbia bisogno di bastian contrari, outsiders, disturbatori dell’ordine costituito. Di musicisti elettronici che comprino meno compulsivamente e producano più artigianalmente.

Tra i progetti che più ci hanno incuriosito, abbiamo trovato audioscanMILANO – Il suono della città. Realizzato con il contributo di Fondazione Cariplo, Comune di Milano-Assessorato alla Cultura, e Regione Lombardia. Migliaia di registrazioni realizzate a Milano e processate per crearne musica. Come è stato possibile?

audioscanMILANO è stato un esperimento in cui il contributo degli studenti dell’Università degli Studi di Milano del Dipartimento di Informatica e Cominicazione è stato essenziale. È uno dei rarissimi casi di registrazioni di soundscape in grande scala (1680 fra vie e piazze di Milano) fatto con coerenza, e cioè sempre con gli stessi strumenti e sempre nelle stessa fascia oraria dei giorni feriali e con misurazioni fonometriche. Abbiamo usato un approccio rigorosamente scientifico. Lo scopo di audioscan era creare una nuova forma di consapevolezza sul rumore e i suoi danni, creare un’installazione che incuriosisse i cittadini nei confronti di qualcosa che solitamente ignora e al tempo stesso è fonte di disturbi fisiologici o mentali. È stato inoltre un chiaro tributo alla storia di questa città che ha dato i natali alla musica futurista di Russolo e alla prima musica elettronica italiana negli studi della RAI di Corso Sempione. Milano ha un rapporto del tutto unico e speciale in Italia con il rumore e la musica tecnologica.

Probabilmente una delle domande alle quali sei spesso sottoposto è la tua collaborazione in QOOB con l’alias Tobor Experiment, attraverso la serie di documentari firmati Tech Stuff. QOOB per chi non lo sapesse era un progetto partorito nel 2005 da una costola di MTV Italia, sviluppatosi poi in Flux nel 2006 per diventare QOOB TV sempre nello stesso anno. Per sintetizzare, era una sorta di social network artistico digitale, educativo e ad ampio spettro (correggimi se sbaglio). Una piattaforma piena di contenuti che spaziava dai documentari agli MP3, dai cortometraggi ai videoclip. Dentro questo magma di creatività completamente libera sono passati artisti come i Digitalism, i Verdena, Ellen Allien, gli Architecture in Helsinki e moltissimi altri. Tu ci hai creato il progetto Tech Stuff. Ti va di parlarci sia di lui che della perdita di una piattaforma come QOOB?

QOOB fu un’idea geniale e un segno dei tempi. Io identifico quel periodo come il canto del cigno della TV.

La TV è un fossile oggi e l’unica cosa che riesce a fare è inseguire (senza riuscirci) la rete. QOOB era la TV che per la prima volta si interessava a internet e alle community digitali e offriva uno spazio televisivo a registi, musicisti e animation artists del tutto trasversali e non commerciali.

Era il momento in cui MySpace stava morendo e Facebook sorgendo. Tech Stuff era una simpatica follia e un’ottima scusa per me per fuggire dal mondo pubblicità, che era il campo in cui lavoravo all’epoca. Dopo aver visto un mio cortometraggio su Star Wars, QOOB accettò la mia proposta di un programma/documentario sulla musica elettronica. Non voleva essere nulla di pretenzioso, doveva essere divertente e veloce, ma volevo parlare di cose importanti e completamente sconosciute al pubblico di MTV come la fonologia della RAI o l’IRCAM. Non fu una passeggiata ma la cosa era tanto folle che riuscì. Mi era stata assegnata una casa di produzione (la mitica TheBox Films) che mi prenotava aerei e alberghi e interviste, ma al resto dovevo pensare tutto io: riprese, audio, musica, grafiche, montaggio… solo sui testi lavoravo con MTV.

Mi era stato vietato di usare qualsiasi video di archivio di MTV Italia e avrei dovuto produrre io tutte le musiche per le 10 puntate… e così finii per rifare il mio personalissimo switched on Bach (anche se ovviamente non ero bravo come Wendy Carlos).

Originariamente per la puntata pilota avevo richiesto la voce del compianto Claudio Capone (la voce di Luke Skywalker, nonché la VOCE di Quark di Piero Angela) che fu un po’ come realizzare un sogno per me, ma MTV non fu convinta, era troppo educational per loro e il lavoro fu affidato poi al geniale Alessandro Bianchi dei Cavalli Marci, al quale puntualmente ad ogni registrazione chiedevo un’imitazione di Antonio Caprarica, che Alessandro eseguiva perfettamente facendomi crepare dalle risate. Il programma ebbe successo e facemmo un libro e un dvd pubblicato dalla ormai defunta Isbnedizioni. L’anno dopo non riuscimmo a trovare un accordo per la seconda stagione e di lì a poco arrivò la crisi causata dal tonfo di Lehman Brothers e QOOB, come MTV, andò coi piedi per aria e tutto finì.

In ogni caso penso sarebbe finito tutto lo stesso nel giro di breve tempo. QOOB per me è stato il momento in cui la TV ha passato il testimone alla rete, oggi quella piattaforma non avrebbe più senso.

(A film and a music performance with the lights and sounds of the steel foundry. Filmed in super8 (kodak Tri-x)and recorded at the Acciaierie di Rubiera (RE) in 2010. Direction and Photography: Giorgio Sancristoforo – Sound: Giuseppe Cordaro and Giorgio Sancristoforo )

Chi seguiva il canale e i tuoi lavori, si sarà sicuramente imbattuto nei tuoi studi sulla musica generativa. Descrivici esattamente di cosa si tratta, da quando ti ci sei imbattuto fino ad arrivare al tuo “Tableau” (Portable Generative LP): un apparecchio che genera musica in base alla temperatura, umidità, pressione atmosferica e in grado di creare un infinito numero di mix.

Per musica generativa si intende una serie di metodi di composizione in cui una parte delle decisioni vengono prese dal computer durante l’esecuzione.

In buona sostanza si tratta di comporre musica facendo equilibrismi fra determinismo e caos, creando regole e non melodie. In altre parole si tratta di progettare un seme che si svilupperà autonomamente ogni volta, pur mantenendo la sua “informazione genetica” di base, così come una rosa è sempre una rosa, ma in qualche modo unica rispetto a tutte le altre piante di rosa. Questo metodo è strettamente legato al significato originale di musica sperimentale e alle parole del suo fondatore e ideologo, John Cage, che definiva la musica sperimentale come una musica indeterminata rispetto alla sua partitura. Al posto della partitura abbiamo un software, ma il concetto non cambia. Partitura sperimentale e software algoritmico sono entrambi processi (un altro nome di musica sperimentale è infatti process music) che poi si sviluppano autonomamente dalla volontà del compositore. Questo per me è infinitamente più attraente di qualsiasi metodo improvvisativo, perché per creare musica algoritmica devi sapere esattamente quello che stai facendo e allo stesso tempo può stupirti continuamente.

I miei primi esperimenti generativi furono dei tentativi di riprodurre le Projections di Morton Feldman e December 1952 di Earle Brown, seguiti più tardi da numerosi tentativi di studio ed applicazione del metodo seriale a logiche algoritmiche. Con gli anni questo è diventato il mio unico modo di composizione (accanto alle partiture grafiche, che rientrano nella stessa logica) e oggi include elementi molto attuali come il machine learning per il riconoscimento dei pattern e nuove forme di sintesi del suono.

L’idea di base che mi ha portato e continua a portarmi su binari algoritmici è che per me il disco è un idea che dovremmo superare.

La riproduzione della musica su un supprto è un’invenzione del tardo Ottocento. Il file e il media player, per quanto moderno sia il concetto, non fanno altro che riprodurre digitalmente ciò che faceva il grammofono di Emil Berliner che usavano i nostri bisnonni e possiamo trovare tutti gli artifici dialettici del mondo come “musica liquida” per definire il modo in cui distribuiamo la musica oggi, ma la sostanza è che usiamo solo dei sofisticati grammofoni computerizzati, e a volte, ancora dei giradischi e cassette.

Questo per me è guardare al passato ed è il motivo per cui ho pubblicato così poco, perché la mia musica, una volta registrata su un file o su un LP è solo una delle milioni di possibili variazioni che può generare e l’unico modo di goderla nella sua pienezza è venire a sentire diversi concerti o avere una tecnologia portatile e poco costosa che sia in grado di far girare il software autonomamente e dare così all’ascoltatore, ogni volta, una diversa esecuzione. Oggi malgrado la tecnologia digitale di cui disponiamo, ci limitiamo a imitare il grammofono, mentre io sogno tecnologie che costino come un CD che possano generare musica in tempo reale e siano allo stesso tempo un piccolo oggetto d’arte. I Tableau sono stati un primo passo in questa direzione, ma io miro a costi molto più bassi e a tecnologie più discrete che siano in grado di donare una nuova esperienza dell’ascolto, includendo un certo grado di interattività. Sugli smartphone sono state fatte cose del genere, ma il cellulare è un dispositivo che dopo qualche anno viene sostituito e alla fine non ti rimane mai nulla di fisico in mano, senza contare che nessuno ci può garantire che un software per iOS scritto oggi potrà girare sui modelli iPhone che verranno fra 10 anni, cosa che ritengo decisamente improbabile.

Io credo che la risposta al bisogno di un medium fisico nella musica, a qualcosa di più concreto e tangibile di un file, a un ritorno ad un esperienza anche tattile e visiva con un prodotto musicale, non sia il revival a vinile ma si nasconda nell’ondata dei nuovi devices del mondo dell’IoT.

Ci sono già esperimenti in atto di questo tipo, i tempi sono maturi, i chip FPGA sono alla portata di tutti e si stanno aprendo scenari che solo dieci anni fa erano completamente inimmaginabili.

Abbiamo solo bisogno di etichette che sappiano diffondere una nuova visione del futuro e per farlo devono abbandonare i fixed media come vinile, CD, cassette e files.

Sempre restando in tema di musica generativa, lo scorso anno con Milanese Nwas prodotto sempre con il tuo alias OOAME per la label Acustronica hai dato vita ad un concept album che sviluppa un’idea e un’attitudine particolarmente libera e senza schemi predefiniti alla composizione. In Milanese Nwas ogni traccia fluisce in modo spontaneo e si forma come per aggregazione cellulare attraverso software da te appositamente progettati e con tecniche digitali avanzate che hai sviluppato ed acquisito nel corso degli anni. Qui il compositore assume un ruolo di osservatore della spontanea creatività musicale. Si tratta di un punto di arrivo nel tuo studio della musica generativa o ritieni ci siano altre direzioni ancora da esplorare?

In realtà gli schemi compositivi ci sono. Se fai un’analisi dei brani ti accorgerai che ci sono tonnellate di progressioni armoniche, o cose più esotiche come rotazioni di intervalli e permutazioni.

Il momento in cui mi metto ad osservare è quando, alla fine del processo, la macchina comincia a prendere decisioni basate sulle regole che ho stabilito.

Questa spontaneità organica che appare è il frutto di un duro lavoro di creazione e organizzazione dei materiali musicali e dei software, che ha più stadi, e non fa uso di nessuna tecnica tradizionale di mix (non c’è nemmeno una DAW o un plugin nel processo).

Ciò che ho fatto è stato creare delle strutture armoniche autogeneranti (ma che pur sempre richiedono una pianificazione compositiva) e poi lasciar disintegrare la ritmica a degli algoritmi che mantenessero allo stesso tempo coerenza musicale da una parte e il rumore dall’altra.

Per questo l’ho chiamato Nwas (si legge nuas come se pronunciassimo noise in francese): un neologismo per definire un approccio armonico al rumore.

A questo metodo ho affiancato solo tecniche di sintesi digitale che rendessero impossibile all’ascoltatore la capacità di distinguere la reale natura di questi strumenti musicali. Come miraggi sonori.

Qualcuno, (anche fonici esperti), pensa che ci siano samples acustici nel disco, ma la realtà è che è tutta sintesi dall’inizio alla fine. Mi interessa creare strumenti surreali, impossibili da realizzare nel mondo reale, come una percussione di zaffiri accarezzata dall’acqua o un tam tam all’uranio. Ho sviluppato tecniche apposite per questo scopo. Credo in suoni non ancora uditi, e nelle potenzialità infinite dei computer e credo fermamente in una rivoluzione delle intelligenze artificiali che già oggi sono nei nostri elettrodomestici, nei nostri telefoni, nelle nostra quotidianità e saranno sempre più accanto a noi. Milanese Nwas è stato un importante punto di partenza più che di arrivo per me, perché ho trovato il momento giusto per cristallizzare una parte di ciò che ho meditato per anni, ma come ho già detto non è il fixed media il suo output ideale, ma bensì il chip.

In generale penso che il mio approccio alla musica algoritmica abbia appena passato la sua adolescenza e stia entrando solo ora in una fase più adulta e consapevole.

Sei membro del centro di musica contemporanea AGON di Milano, del Gruppo Prisma e sei docente di sound design e sound synthesis presso l’Istituto SAE di Milano. In che periodo hai iniziato a lavorare alla creazione di software? Ti va di parlarcene? Tenendo in considerazione che da tutti i tuoi progetti, emerge una viva e primordiale voglia di inventare, di costruire, di essere il primo dietro il quale si cela la nascita di un’idea, che poi toccherà ai posteri il compito di evolverla sempre di più. Se così fosse, la consideriamo una cosa assolutamente geniale e che si è persa negli ultimi vent’anni almeno di musica elettronica sperimentale e non solo.

Ho iniziato a studiare programmazione su linguaggi ad alto livello come Max, Pure Data e Csound intorno al 2000 e nel 2004/5 avevo i miei primi plugins per protools pubblicati sulla rete che qualche artista internazionale iniziava ad usare.

Gleetchlab naque più o meno in quel periodo e oggi è la sua quarta versione. Berna (il cui nome non ha a che fare con la città Svizzera ma con l’unione dei due nomi Berio e Maderna)  è una simulazione dello studio fonologia della RAI e l’ho ideato per i conservatori e le accademie musicali. Questi software hanno un piccolo ma prestigioso bacino di utenti fra cui posso citare Ben Frost, Richie Hawtin, Ryuichi Sakamoto, Curtis Roads, il BBC Radiophonic Workshop, la Tufts University, il Royal College di Stoccolma, il CENART di Città del Messico e il CCRMA di Stanford (dove naque la sintesi FM del DX7).

Vi ringrazio per il “geniale”, mi onora, ma se devo essere sincero ritengo che questo tipo di percorso sia semplicemente parte dello spirito originale della musica elettronica. Se osserviamo la musica delle avanguardie, la creazione di nuove teorie notazioni e tecnologie, era all’ordine del giorno. Questa è l’essenza del Gruppo Prisma e di AGON di cui mi onoro di far parte e che è ovviamente alla base di istituzioni come IRCAM, CCRMA… Dal mio punto di vista la musica elettronica ha una fondamentale differenza con tutti gli altri generi musicali, e cioè che si fonda sull’evoluzione delle teorie musicali e sulla tecnologia. Questi due aspetti che vanno di pari passo, determinano l’essenza e i perché della musica tecnologica, ma per accorgecene dobbiamo guardare oltre gli schemi dell’intrattenimento ed entrare nei territori più negletti e impervi della musica del ‘900, che solo in parte sono stati assorbiti e compresi dal grande pubblico. Rispetto a trenta – quarant’anni fa, oggi la musica delle avanguardie storiche è più accettata, interessa di più i giovani, (sono convinto che se fosse ancora vivo, un concerto di John Cage oggi attrarrebbe un enorme pubblico), e continuamente si creano terreni fertili, ma per coltivare con risultati queste aree i musicisti devono rifuggere la logica dell’ “user” e il conformismo consumistico, fare ricerca prima di pubblicare smodatamente, evitando di ripetere continuamente la scoperta della ruota.

Semplicemente credo di aver fatto quello che andava fatto, senza pretese di lascito ai posteri, ma per necessità. Certo se invento una tecnica di sintesi è inutile che la tenga solo per me.

A proposito di geni, parliamo della tua intervista a Karlheinz Stockhausen e della tua puntata “Tech Stuff – Istituto di Fonologia Rai”. Perchè ogni volta che si parla di precursori di musica elettronica, in ogni suo più remoto territorio sperimentale, tutti associano studiosi o compositori provenienti da ogni angolo del pianeta, e mai nessun italiano? Perchè nessuno si interessa all’enorme potenziale storico che è racchiuso nello “Studio di fonologia musicale della RAI” fondato da Bruno Maderna e Luciano Berio? Ci racconti cosa ci stiamo perdendo?

È un problema tutto italiano. Il fatto è che in un certo senso da noi abbiamo confuso la musica elettronica con il rock e siamo arrivati al punto di farci raccontare la storia della musica elettronica dagli autori britannici. L’Inghilterra in realtà fu una di quelle nazioni europee che arrivarono tardi alla musica tecnologica: il BBC Radiophonic Workshop aprì i battenti nel 1958, ben sei anni dopo la prima versione di Musica su due dimensioni di Bruno Maderna (per nastro magnetico e flauto) e altrettanti anni dalla fondazione dello studio della WDR a Colonia, e ben dieci anni dopo il GRM a Parigi. Non solo gli inglesi arrivarono in ritardo, ma erano anche distanti anni luce dal resto d’Europa che si ritrovava a Darmstadt a fare la storia della musica contemporanea. Il workshop non aveva compositori d’avanguardia, ma ottimi mestieranti dell’effetto sonoro; lo scopo del lavoro dei vari Derbyshire, Cain, Baker ecc. era quello di fare sigle televisive, incidental music, effetti – non composizioni o innovazione culturale. Se c’è un paese refrattario al modernismo e all’avanguardia è proprio l’Inghilterra che vive da sempre in un mood neoclassico e conservatore, e così anche quando Tristam Carey e Peter Zinovieff fondarono l’EMS a Putney, non ricevettero nessun tipo di supporto dall’elite culturale britannica, che li lasciò fallire negli anni ’70, nel più totale disinteresse dell’opinione pubblica.

Ma l’Inghilterra ha creato i Beatles e il pop e il rock devono quasi tutto a questi signori, e negli anni ’70 hanno generato un Brian Eno e un Bowie, ed è per questo che siamo sempre tentati dalla falsa convinzione (loro e nostra) che siano stati dei pionieri anche nell’elettronica, mentre è in realtà un falso storico.

Non dimentichiamoci che è stata l’Italia a generare il movimento futurista. In secondo luogo mettiamo sul piatto il patologico sentimento esterofilo nostrano che ci fa osannare autori di sigle televisive d’oltremanica e ignora di aver avuto giganti come Nono, Berio e soprattutto Maderna, che gli appena-ventenni Stockhausen e Boulez, adoravano come un dio in terra quando studiavano a Darmstadt.

L’Italia ha dato un contributo essenziale alla nascita della musica elettronica, per aver saputo cogliere per prima la bellezza nascosta del rumore con Russolo, e per aver saputo cogliere per prima e libera da ideologie, la necessità di fondere musica concreta, musica elettronica e strumenti acustici (e la voce!). La storia ha dimostrato più volte che la visione italiana era tutt’altro che una stramberia.

In realtà quindi un po’ per ignoranza, un po’ per esterofilia, dimentichiamo che la storia plurisecolare della musica italiana ha dato un apporto fondamentale alla musica elettronica, senza il quale, probabilmente, sarebbe naufragata nella sterile diatriba ideologica fra Francesi e Tedeschi.

Per rispondere al “cosa ci stiamo perdendo“, potrei fare un paio di esempi con Non consumiamo Marx di Luigi Nono, in cui le manipolazioni al nastro magnetico dei canti e delle proteste del maggio del ’68, si trasformano in un paesaggio sonoro elettronico sconvolgente che oggi risuona come una drammatica e attualissima profezia. E Thema, Omaggio A Joyce, di Luciano Berio (da un’idea sviluppata con Umberto Eco, che allora era direttore culturale della RAI) dove la voce umana e il montaggio al nastro magnetico arrivano a forme di espressione e poetica che ancora oggi rimangono imbattute. Insomma ci perdiamo una fetta importante della nostra storia e la colpa onestamente è nostra e dei direttori artistici che si rifiutano di dare spazio a quel periodo e quei suoni nei grandi festival. Da noi si esegue (da cani) il concerto per violino e orchestra di Maderna e tanti saluti. I pezzi elettronici è come se non fossero esistiti.

Abbiamo ancora molto da lavorare sulla nostra mentalità provinciale e sull’idea di musica d’arte in Italia.

Tornando a Tech Stuff, nella puntata dedicata alla storia del Moog si dice che il disco più venduto di musica classica del 1969 sarebbe “Switched on Bach” realizzato con un sintetizzatore Moog. Al di là dell’interessante curiosità, oggi possiamo affermare che il Moog sia tornato definitivamente tra gli strumenti più utilizzati in ambito elettronico, al punto tale che anche artisti delle nuove generazioni non possono fare a meno del suono del Moog. Si tratta secondo te di uno dei tanti ritorni modaioli o può essere considerato un riconoscimento di un peso culturale nei confronti di uno strumento che continua ad innovare in ambito elettronico?

Che il Moog e in generale i sintetizzatori analogici stiano vivendo un momento di immensa popolarità e diffusione è un fatto ben visibile a tutti. È l’onda lunga del vintage, iniziata nei primi anni ’90, quando il Moog e lo Space Echo li recuperavamo a fatica cercando dai robivecchi o in cantine e soffitte dimenticate fra gli annunci di seconda mano. Fu quello il momento in cui si formarono band come Air, Chemical Brothers, Prodigy e Daft Punk, che alla fine di quel decennio avrebbero conquistato i palchi più grandi del mondo.

Quello che vediamo oggi è l’effetto di quell’onda, moltiplicato dal potere mediatico di internet e dalle nuove tecnologie industriali che hanno abbattuto i costi di produzione e miniaturizzato (grazie alla diffusione planetaria dei cellulari), creando così un mercato completamente nuovo.

Che però è un mercato di massa. Parlando di sintetizzatori analogici oggi non possiamo più parlare “di nicchia” come vent’anni fa, ma di cultura di massa.

Il problema di questa facilità di reperimento dei mezzi è che ci troviamo difronte a un’ondata di conformismo che non fa bene all’arte, perché non si vuole innovare ma conservare e farsi accettare.

Se nel ’94 suonare un sintetizzatore era un atto di ribellione e di emancipazione dal rock, dal metal e dal morente grunge, oggi è perfettamente conforme, normale e di tendenza. E qui sta il problema: non c’è rottura con il passato, c’è al contrario una glorificazione del passato.

Ma l’innovazione nelle arti non è mai un fenomeno accettato dalla massa. Stockhausen, che a buon diritto è il padre della musica elettronica, fu accusato di aver distrutto la musica, e la stessa cosa venne imputata a Cage.

Se osserviamo quello che succede in paesi meno ricchi, come ad esempio in Argentina, Messico, Russia o Grecia, dove i ventenni non si possono permettere l’ultimo Moog o l’ultimo modulino alla moda e nemmeno un Mac con il solito Ableton, troviamo realtà artistiche di genuina innovazione e forte rottura con il passato. Penso a fenomeni come il bio-hacking, il post-porno, la scena algorave, il live coding. Meno mezzi economici ci sono, più innovazione digitale troviamo; questa cosa dovrebbe farci riflettere di più.

Da un punto di vista sia tecnologico che artistico, non penso che il Moog possa ancora innovare, né d’altra parte è possibile aspettarci un uso radicalmente nuovo di questi strumenti, per gli evidenti limiti (espressivi, timbrici, strutturali) che questi strumenti nati quarant’anni fa, si portano appresso e che lo stesso Peter Zinovieff, inventore del VCS3, già lamentava negli anni ’70. Pochi si rendono conto che la EMS vendeva synth analogici per potersi permettere i soldi per fare computer music.

Vedremo quindi innovazione nella musica elettronica quando la nostalgia del passato sarà sostituita da un’insaziabile voglia di futuro. E mi auguro che accada presto.

La parola sintesi nasce da sin (con) e tesi (posizione). In Tech Stuff spieghi che il sintetizzatore è il coltellino svizzero della musica elettronica, uno strumento per fare strumenti. Ancora oggi il synth è imprescindibile nella composizione elettronica ma in alcune scene culturali, come quelle che arrivano dal Medio Oriente, dall’Egitto, dall’Etiopia e, più in generale, dall’Africa, il recupero dei suoni analogici è centrale anche nella riscoperta di artisti dimenticati dagli anni ’70 e ’80, molti dei quali sono stati pionieri di questi suoni. Quali prospettive e motivi di interesse riveste secondo te il mondo della musica sperimentale di matrice araba contemporanea?

Gli artisti africani dimenticati degli anni ’70 e ’80, mi piacciono ma non sono interessato a contaminazioni di un passato così recente. In fondo stiamo vedendo la stessa cosa che accadde negli anni ’90 con le riscoperte delle vecchie compilation dimenticate dello Studio One.

Piuttosto mi incuriosiscono fenomeni musicali radicali che nascono in luoghi dove il Moog e i modulari non arrivano e la gente si arrangia con quello che ha e magari deve vedersela con un regime che non è proprio aperto a sperimentazioni di matrice occidentale.

Penso ad esempio all’Iran e alla Turchia.

Sebbene sia facilmente prevedibile che la musica del Medio Oriente e dell’Africa avrà col tempo uno spazio più grande in Europa, credo che il ruolo e l’importanza degli artisti di quei luoghi non si possa misurare sul nostro grado di interesse, o sulla qualità della sperimentazione dal nostro occidentalissimo punto di vista o di quanto ci influenzeranno, quanto piuttosto sull’abilità di quegli artisti di riuscire a far risuonare temi come la secolarizzazione e i diritti umani in luoghi affetti da metastasi nazionaliste e religiose. Forse posso solo accennare una sincera nota di invidia nei confronti di chi deve usare la musica per combattere per un ideale, con pochi mezzi e tante difficoltà, perché è nelle difficoltà, e non nelle case piene di ogni comodità, che accadono le rivoluzioni culturali.

Qual è il tuo approccio nei confronti della musica elettronica di oggi e quali sono secondo te musicisti e artisti in attività i cui progetti sono assimilabili o almeno si avvicinano alla tua personale idea di composizione musicale?

Viviamo oggi in un momento in cui tendiamo a giudicare le musiche cosiddette sperimentali in base al suono (o peggio al mezzo che lo produce), senza comprendere che la musica sperimentale è una musica del processo in cui il risultato e il mezzo sono secondari.

Una patina di suoni ben confezionati, ben mixati e gradevoli non basta per me. Non è per i suoni che si fa e si ascolta musica sperimentale, ma per l’esperimento che viene intrapreso, per il processo impiegato. Nessuno ha mai detto “amo i suoni di John Cage”. Cage lo ami per la filosofia che c’è nella sua musica, non tanto per il suono dei suoi brani, che è indeterminato.

Se una musica sperimentale è fatta solo di bei suoni e non ha un processo propriamente sperimentale alla sua base, allora è un fake, una simulazione. Purtroppo oggi tanta musica che si autodefinisce sperimentale è solo uno strato di bei suoni, e il bello in musica è come il bello nell’arte, un concetto che è stato ampiamente superato dalle avanguardie. Da un artista vorrei delle risposte a domande come perché questi suoni? perché questa forma? perché questo concetto? Cosa stai cercando di trasmettermi?

Stimo molto artisti che non sono assimilabili a me stilisticamente, ma con cui condivido in un certo modo questa bolla di resistenza modernista, come Massimiliano Viel, Daniele Ghisi, Andrea Valle, Lorenzo Pagliei, Michele Tadini, persone in grado di mettere a dura prova la tecnologia con idee affascinanti e innovative e che al tempo stesso non sono schiavi di nessuna forma di nostalgia. È gente che al posto dei muri di sintetizzatori ha muri di schemi tecnici e partiture e vive nel software costantemente, coi piedi ben piantati nel presente.

Quali sono i progetti ai quali ti sei legato maggiormente e quelli su cui stai lavorando in questo momento?

Vorrei concludere parlando solo di ciò che verrà e quindi posso accennare al fatto che sono in questo momento al lavoro con un team di scienziati per un’opera che ha a che fare con l’arte nucleare e il DNA. È sicuramente il mio progetto più ambizioso e il più maturo.

Da quasi un anno sfrutto alcuni radioisotopi artificiali per applicazioni musicali. Questi elementi hanno delle caratteristiche interessanti per quanto riguarda la distribuzione dei numeri casuali, che sono una parte fondamentale della mia pratica musicale.

Inoltre la radioattività è un tema di estrema attualità per quanto riguarda la questione energetica, l’inquinamento e le guerre che ci minacciano continuamente.

Inoltre di recente ho preso coscienza dell’immenso potenziale del DNA e delle sue stupefacenti similitudini con i linguaggi di programmazione. il mio stesso DNA sta diventando per me il terreno di ricerca artistica più importante. Per ora sono limitato da un non disclosure agreement e quindi dovrete aspettare l’autunno del 2019 per sapere tutto.

Per concludere, nei prossimi mesi devo pubblicare con un matematico italiano (il Prof. Cristiano Bocci dell’Università di Siena) che è anche un grande musicista, una nuova forma di sintesi del suono chiamata Sintesi Additiva Tropicale, che metteremo in campo il prossimo anno con il Reihe Laptop Ensemble, che ho l’onore di dirigere.

(cover photo by Alessandro Scotti)

Intervista a cura di Stefano Grossi con la collaborazione di Fabrizio Montini Trotti.