twenty six − = sixteen

Giorgio Sancristoforo ci permette di esplorare attraverso i sui studi, una nuova ed affascinante frontiera musicale, in grado di varcare i confini tra la sperimentazione musicale e la fisica. Benvenuti nell’era della SciArt, dove l’arte e la scienza si fondono.

Membro del centro di musica contemporanea AGON di Milano, del Prisma Composers’ Group e docente di Sound Design e Sound Synthesis presso il SAE Institute di Milano, lo scorso anno avevamo avuto modo di intraprendere attraverso una lunga intervista, un viaggio all’interno dell’incredibile mondo di Giorgio Sancristoforo; sviluppatore di nuove tecnologie nonché una delle menti più brillanti del nostro paese in ambito di sperimentazione sonora.

Esplorando il suo percorso artistico avevamo analizzato i suoi documentari Tech Stuff usciti su QOOB TV, i progetti sulla Musica Generativa, le ricerche negli studi di fonologia della RAI fino ad arrivare ai software di sua produzione e che hanno un bacino di utenti come Robert Lippok, Ben Frost, Richie Hawtin, Richard Devine, Ryuichi Sakamoto, Curtis Roads, il BBC Radiophonic Workshop, la Tufts University, il Royal College di Stoccolma, il CENART di Città del Messico e il CCRMA di Stanford. Solo per citarne alcuni.

In questa nuova intervista ai confini della realtà invece, Giorgio ci introduce a un percorso che unisce arte e scienza, presentandoci il suo ultimo studio: creare musica da materiali radioattivi. Catturando l’energia emessa da diversi tipi di radioisotopi, ci spiegherà come è stato possibile trasformare in suoni questo fenomeno attraverso strumentazioni scientifiche e software custom, con l’obbiettivo di arrivare a creare un sintetizzatore che ci permette di ascoltare l’invisibile energia degli atomi che si disintegrano.

Affrontando insieme a noi temi complessi come la radioattività e i suoi strumenti, è un onore per noi presentarvi questa nuova intervista a Giorgio Sancristoforo.

AUTORADIOGRAFIE DI ELEMENTI RADIOATTIVI

Ciao Giorgio e bentornato su Parkett. Abbiamo seguito con molto interesse i tuoi ultimi studi che legano l’energia della materia al suono. Attraverso il tuo percorso di studi e di sperimentazioni, sei riuscito a rendere udibile l’energia dei materiali radioattivi catturando i flussi di particelle che emettono, e in qualche modo poterli classificare musicalmente e identificarne la particolarità. Sei riuscito a creare musica dalle reazioni nucleari di decadimento. Cosa ti ha spinto verso questa nuova e incredibile frontiera? raccontaci tutto il percorso di questo processo: dall’idea iniziale fino alla realizzazione del software Ray Of Light MCA/S, grazie al quale sei riuscito a farne musica elettronica.

La radioattività è uno di quei fenomeni che sembra a prima vista distante dalla vita di tutti i giorni e relegato per lo più a un’immaginario artificiale, minaccioso e pericoloso.

Ma la verità è che siamo costantemente circondati da un mare di radiazioni. Tutta questa energia è ovunque nel cosmo.

La radioattività è il modo con cui la materia raggiunge uno stato di equilibrio all’interno dei nuclei atomici, durante il processo viene liberata energia in varie forme e differenti quantità. È la “natura naturans”. L’universo in divenire che racchiude in sé il segreto della trasmutazione degli elementi immaginata dagli alchimisti. L’incontro con la radioattività è quindi un incontro con l’energia della metamorfosi, del cambiamento. Il tema del cambiamento ci riporta facilmente a John Cage, al caso, all’indeterminatezza della musica sperimentale, ed è da lì che sono partito.

I contatori Geiger sono stati usati per l’arte o la musica (credo che esistano almeno un paio di moduli per sintetizzatore dotati di tubi Geiger), ma il mio obbiettivo era andare oltre e ascoltare meglio il fenomeno attraverso strumenti più sofisticati come gli spettrometri e rilevatori di raggi x e gamma di fascia professionale, ed effettuare qualche esperimento come la produzione di coppie elettrone-positrone, la radiazione di frenamento o Bremsstrahlung e l’analisi degli spettri gamma.

Cominciamo col dire che i computer non sono in grado di generare veri numeri random ma richiamano lunghe sequenze di numeri pseudo-casuali generati attraverso delle formule che dopo un certo tempo sono destinate a ripetersi. Il decadimento radioattivo è invece un reale processo casuale. Non possiamo prevedere con esattezza quando un atomo si disintegrerà, di conseguenza un rivelatore di radioattività si presta ad essere un eccellente “sorgente di incertezza“, per usare un termine familiare ai sintetizzatori.

A seconda dell’elemento che prendiamo in considerazione, quando un atomo instabile si disintegra possono essere emessi alcuni tipi di particelle dal nucleo che classifichiamo come raggi ⍺ (nuclei di elio), β (elettroni) o γ (fotoni), o se prodotti dal “guscio” degli elettroni, raggi X (fotoni).
Ci sono anche altre particelle prodotte dalle reazioni nucleari come neutrini, antineutrini, positroni, neutroni, muoni ecc, ma restiamo con i raggi gamma per ora.

Queste radiazioni si dicono ionizzanti perché sono in grado di strappare elettroni agli atomi che incontrano sulla loro strada. Le microonde dei forni o dei telefonini non sono radiazioni ionizzanti (sfatiamo una bufala già che ci siamo), i raggi UV provenienti dal Sole invece sono debolmente ionizzanti.

Molti elementi durante il decadimento emettono raggi γ e questo avviene sempre in determinati stati energetici. In altre parole i decadimenti hanno una loro firma, un pattern di energie caratteristico. Questo affascinante processo statistico permette ai fisici di poter riconoscere l’elemento radioattivo in base alle energie dei raggi γ, attraverso una tecnica chiamata spettrometria, ed è questa tecnica che ho usato per sonificare le radiazioni prodotte da differenti radioisotopi.

Ora tieni a mente che l’energia di un fotone è direttamente proporzionale alla sua frequenza (per i raggi γ si parla di Exahertz), di conseguenza, senza fare troppi torti alla fisica potremmo dire che ogni elemento decade con un certo pattern timbrico o un certo “colore“.

L’obbiettivo di questo studio era quindi creare un sintetizzatore che fosse in grado di generare questi timbri in tempo reale, di fatto creando una trasposizione in suoni del decadimento radioattivo.

Tecnicamente come è stato possibile passare da spettri in decadimento a frequenze udibili, e come definiresti o classificheresti la musica prodotta dalle particelle radioattive? Può essere inserita in qualche sotto-genere o c’è la necessità di crearne uno nuovo?

Il concetto non è molto complicato, questo tipo di analisi si chiama PHA o analisi dell’altezza d’impulso, si tratta di usare una FFT in un modo non esattamente comune per il suono.
Gli spettrometri usano dei rivelatori a scintillazione. Lo scintillatore è un cristallo che reagisce creando luce visibile quando viene colpito da un fotone ad alta energia. Un circuito foto-moltiplicatore trasduce la luce in un impulso elettrico proporzionale all’intensità della luce emessa. A questo punto si misurano e si raccolgono in differenti registri le intensità e ricorrenze degli impulsi, quello che si ottiene è un grafico della distribuzione delle energie. Le energie dei fotoni poi vengono scalate in Hertz (in genere faccio corrispondere 662keV a 662Hz ma è una relazione del tutto arbitraria è bene sottolineare) e usate per pilotare 512 oscillatori sinusoidali. In altre parole, le ampiezze degli impulsi, nella FFT modificata, diventano frequenze, mentre le ricorrenze diventano le ampiezze.
La risoluzione dell’analisi dipende dalla grandezza dello scintillatore, dalla grandezza della finestra di analisi e dalla velocità della frequenza di campionamento, che per questo lavoro non è mai inferiore a 192KHz.

Non credo ci sia l’esigenza di creare o cercare di stabilire un genere per tutto ciò.
Se questo lavoro sul suono viene inserito all’interno di una forma musicale, rientra semplicemente nella musica sperimentale, se lo porto in un museo o in una galleria, siamo nella sound art e nella nuclear art (ma non nel vecchia accezione ecologista anni ’70).

Il concetto di creare generi e sottogeneri per ogni idea che abbia una vaga originalità è un po’ bizzarro per me, in questo caso poi sarebbe del tutto inutile, perché non credo che dopo questo articolo fiumi di musicisti rinunceranno ai loro strumenti per acquistare costose apparecchiature scientifiche e software che non esistono che vanno programmati appositamente. Non credo di stare aprendo la strada a una “nuclear music”, sto semplicemente facendo musica sperimentale, con le mie idee.

SIMULAZIONE DELLA DEFLESSIONE DI RAGGI BETA EMESSI DA UNA SORGENTE DI Sr90

Dal video che hai recentemente pubblicato, On Radioactive Music1: Ray Of Light MCA/S, si può visibilmente notare che il software emette della musica sia in presenza di materiali radioattivi, che senza. Significa che la sensibilità dello strumento è in grado di misurare la radioattività che è presente nella normale vita quotidiana, dandoci quell’affascinante percezione di essere immersi costantemente dentro un flusso di energia?

Esattamente. Non solo viviamo circondati da un oceano di radiazioni che arrivano dalle stelle, dal suolo, dall’aria, dai materiali da costruzione, dai fulmini, dal cibo, ma le emettiamo noi stessi. Il potassio che è pressoché ovunque negli organi umani, esiste in una piccola percentuale sotto forma di isotopo naturale K-40 (di cui fra l’altro gli oceani e la frutta fresca sono pieni), e si disintegra nel nostro corpo alla velocità di 5000 atomi al secondo. Di queste reazioni, il 10% produce raggi gamma che escono dal nostro corpo.

Siamo naturalmente radioattivi.

Parlando di radiazione naturale intorno a noi, questa varia anche sensibilmente in base alle caratteristiche geologiche del territorio e in base all’altitudine. A tale proposito assorbo una dose di radiazioni più alta durante un volo intercontinentale, che non maneggiando i materiali radioattivi di questi esperimenti. È importante chiarire che si tratta sempre di “quantità esenti” che se maneggiate con il dovuto rispetto, non possono presentare pericoli. I dischetti gialli che vedi nel video si usano nelle classi di fisica o per calibrare gli strumenti. Sono sigillati e non possono provocare contaminazione, ma richiedono naturalmente consapevolezza e cautela.

Nel mio lavoro artistico cerco di demistificare la radiazione. Abbiamo costruito nei decenni una mitologia tremenda dell’atomo molto spesso non aderente con la realtà che sconfina nella pura paranoia. Saliamo su un’aereo senza sapere che quel giorno assorbiremo una dose di radiazioni più alta di quella che assorbirà un tecnico in una centrale nucleare.

Alla fine, la cosa più pericolosa per noi comuni cittadini, parlando di radiazioni, è fumare un pacchetto di sigarette al giorno.

Quello in un anno fa superare perfino la dose assorbita dagli astronauti, che sono i lavoratori più esposti a radiazioni ionizzanti.

SIMULAZIONI DI CAMPI MAGNETICI PER LA DEFLESSIONE DEI RAGGI BETA

Attraverso l’esplorazione spaziale più o meno recente, alcuni veicoli sono riusciti a catturare non solo immagini incredibili, ma attraverso particolari strumenti ed elaborazioni matematiche, sono riusciti a catturare le emissioni radio presenti nell’universo, rielaborarle e convertirle in onde sonore. La NASA ha così messo in streaming il suono proveniente da satelliti, corpi celesti e fenomeni spaziali. Esiste una relazione tra questo i tuoi recenti studi sulla musica e radioattività? Ma soprattutto, ci spieghi l’importanza dietro queste scoperte in ambito sonoro?

La musica, rispetto alle altre arti, ha sempre avuto un rapporto privilegiato con la scienza e più anticamente con la descrizione del cosmo. La musica era legata alla scienza ancora prima che la chiamassimo così. Da Pitagora al Quadrivium Medioevale a Kircher la musica è stata oggetto di studio e infinite speculazioni come modello dell’universo.
Pensa all’armonia delle sfere…
Gli studi di acustica e teoria dell’informazione che accompagnarono sia il serialismo elettronico tedesco che la musica concreta francese, o i computer di Stanford e dell’IRCAM, sono tutte conseguenze logiche della natura matematica (e fisica) di questa arte: il laboratorio di musica elettronica degli anni ’50 è nato d’altra parte usando strumenti di misura. Esiste quindi un rapporto diretto con la scienza, che la pittura, la scultura e la letteratura non possono aspirare a raggiungere.

Dalla nascita della computer music, la musica si è occupata di fisica del suono in maniera sempre più approfondita e sofisticata, culminando nella creazione di estetiche musicali come lo spettralismo francese, che fanno dell’analisi scientifica del timbro dei suoni, il principio compositivo.

A partire da questa riflessione intima sul suono, potremmo aggiungere una prospettiva attuale fondata sull’ascolto come strumento di comprensione dell’universo.

Quindi per rispondere alla tua domanda: certamente c’è un filo comune fra i “suoni” delle missioni Voyager e i “suoni” dei miei radioisotopi.

Il nostro sistema uditivo e il nostro cervello sono molto efficienti nella discriminazione dei suoni e nella rilevazione di patterns. Il nostro orecchio è spesso più “bravo” dei nostri occhi a scovare differenze e peculiarità in mezzo a un mare di dati. Si parla quindi di percettualizzazione o sonificazione dei dati, che è un tema importante nella Sci-Art.

SIMULAZIONE DI LENTI MAGNETICHE PER RAGGI BETA

Dopo la musica generativa di cui abbiamo parlato durante la scorsa intervista, potenzialmente grazie alle tue creazioni, sarà possibile in un futuro prossimo essere forniti di apparati in grado di circondarci non solo di musica che si evolve da sola, ma anche di musica che cambia a seconda della composizione dei materiali o dei luoghi in cui ci troviamo?

Esistono micro rivelatori di radiazioni ionizzanti che si attaccano al cellulare, ma in ogni caso non si tratta di strumentazioni standard come bussole o termometri, quindi dubito che in futuro la gente possederà di default un contatore geiger (ne tantomeno uno spettrometro). Quello che posso dire è che oggi le tecnologie sono più accessibili, pensa ai telescopi di oggi per esempio, che hanno motori, prestazioni e computer a costi contenutissimi o ai microscopi elettronici.
Per un musicista che si occupa di arte e scienza ci sono infinite possibilità.
La musica elettronica non è nata solo dalla musica, ma anche dalla scienza e da strumenti scientifici e trovo del tutto naturale che scienza e musica elettronica possano incontrarsi e aiutarci a comprendere meglio l’universo in cui viviamo.

Dove presenterai questa tua ultima creazione e verso cosa ti spingerai in futuro?

Questo progetto è parte di una residenza artistica presso il JRC-Ispra della Commissione Europea che culminerà con il festival Resonances III a Ispra e Bruxelles, questo autunno/inverno. Sto preparando una grossa scultura sonora che avrà a che fare con il mio DNA e le radiazioni.

Nell’immediato futuro, per la Digital Week di Milano il 14 Marzo, a Palazzo dei Giureconsulti in Piazza dei Mercanti 2, farò un breve concerto per DATAMI, il progetto di Arte e Scienza del Joint Research Centre, dove farò sentire questo lavoro accanto a un’altra ricerca, in cui ho trasformato le barre di combustibile del reattore ESSOR del JRC, in strumenti musicali virtuali.

Ho caricato una traccia su Bandcamp per chi non potrà essere presente all’evento:ascoltatela QUI.

Per il futuro ho le idee abbastanza chiare e continuerò su questi temi. Sto iniziando ad assemblare due rilevatori di muoni (per l’analisi dei raggi cosmici) e ho l’intenzione di dotarmi di un rilevatore di neutroni. Il mio DNA sarà presto codificato in dati e anche quello sarà materiale scientifico che userò per molto tempo.

Sogno un giorno di arrivare ad assemblare un piccolo fusor, un reattore amatoriale per la fusione deuterio-deuterio o D-D. 

“L’idea di creare suoni da una stella in miniatura mi sembra pura poesia”.