Sabato 21 dicembre 2019
presso il CSOA Forte Prenestino
Via Federico Delpino - Roma (RM)
Av.A.Na. festeggia i 25 anni, come tradizione il 21 dicembre,
LiveCoding o meglio REBOP Coding by Bz Akira Santjago;
il performer scrive e esegue il codice che viene decodificato dalla macchina e produce un risultato sonoro. La performance musicale, quindi, consiste in un dialogo continuo tra uomo e macchina, in una sorta di rapporto direttore d'orchestra <-> esecutore in cui il primo non ha mai il pieno controllo sul secondo. Il codice sorgente viene continuamente modificato e valutato dal musicista per variare i risultati musicali. Il Live Coder o meglio nel mio caso Rebopper (quindi REBOP Coding per ragioni che leggerete sotto), di conseguenza, per il fatto di essere sul palco di fronte a un pubblico, che può anche leggere ciò che sta scrivendo e/o valutando, è il vero e proprio artefice del prodotto finale e la sua è una composizione musicale improvvisata; nel mio caso il tutto è arricchito da gif animate legate al brano musicale creato in quel momento e da una prosa a tema sociale improvvisata come commento all'idea musicale;
le mie composizioni non sono semplici e minimali e le sequenze che definisco sono sicuramente più melodiche di tante altre cose che ho sentito nel mondo musicale del Live Coding; ma il problema principale è che uso un linguaggio estremamente prolisso, SuperCollider, forse il piu prolisso tra i vari linguaggi in uso nel panorama del Live Coding; in mancanza di tempo, questo mi impone di partire da template prefabbricati in studio per poi combinare le varie sequenze durante il Live; ho creato queste sequenze in ore e ore di sessioni di Live Coding e il tempo a disposizione per questa Live era pochissimo, la sessione sarebbe durata 4 ore se fossi partito da zero; nel mondo del Live Coding, c'è chi parte dall'editor vuoto e chi parte da template e algoritmi prefabbricati e poi combina e modifica le sequenze come ho fatto in questa sessione Live (link TOPLAP); con Tidal, altro linguaggio di programmazione, una canzone delle mie la scrivi con 5 linee di codice; era comunque la mia prima esperienza con il Live Coding e sto creando il sistema REBOP proprio per snellire il linguaggio; questo per rispondere al "sapientone" che mi critica nel video qui sotto; ha ragione lui, il mio non è Live Coding, uso il Live Coding come strumento di composizione; il mio è REBOP Coding, visto che aggiungo anche immagini e prosa improvvisata a tema sociale come commento all'idea musicale; e la chiudiamo qui;
non la chiudiamo qui; per essere seri, e fregandosene dei rosicamenti altrui, il mio REBOP Coding è Live Coding come si può serenamente desumere dalle tante testimonianze di Live Coder della community TOPLAP; il problema è che questi discorsi allontanano le persone dal provare il Live Coding e sopratutto dal provare a creare un proprio stile di programmazione;
Alcune testimonianze dal Forum di TOPLAP (Forum Internazionale e Ufficiale della Community di Live Coding) :
"It depends on the audience and purpose of the performance, but for Algorave-style performances I prepare code for nearly everything. I typically prepare small 5-minute compositions that I can improvise with. However, I also do completely improvised stuff in live streams and in front of live audiences if the performance demands it.
The “live” part of my performance consists of:
Improvisation of the pre-written compositions
Transitions between the pre-written compositions"
---
"I prepare almost everything in my sets currently, for a few reasons:
I write songs that kind of have to be performed in vaguely predictable sections to work
Ixi uses the arrangement of the text/whitespace in physical space to determine time, so a single typo can throw you into a different time signature (this is great great great for songwriting, but super risky for live performance).
typing while singing is quite hard. :wink:
The only version of ixi that works on my computer is super unstable so however much I pre-prepare there’s always an element of risk anyway.
Probably 90% of it is pre-typed and just evaluated live"
---
"yes, I definitely think this some holds people back from jumping into the live coding community and making the music with code that best suits their own performance style/song structure. Part of the reason I wanted to start this discussion! And to be fair, I would argue that some of my favorite and most prominent live coders today definitely have structured tracks that they return to in most of their sets, regardless of how much of them they type live!"
---
"I think I respect the way that live programmers feel happy playing live, what I do not like is when you talk about “good practices” when you play from skratch, I think this demerits the practices of other live programmers who have other processes. I feel good by composing and “typed live”, for a long time I stopped thinking that things are better because they seem to be more complex, in any way, making music, under any medium, it is always a challenge, the challenge of ordering sound on time. Would it be great to eliminate these ideas about whether it is live encoding or not? Both processes are live coding from my point of view."->
REBOP : Realtime Exploration Beyond Ordinary Possibilities
Il REBOP nasce dalle mie esperienze di composizione algoritmica con SuperCollider e con l'OpenGL GLSL e da alcune consapevolezze raggiunte durante i vari esperimenti; il REBOP "incoraggia la creatività per se stessi piuttosto che per il consumo culturale". Non produce alcuna opera completa, quindi non esiste nulla da diciamo consumare e valutare. Il REBOP crea sempre composizioni parziali, quindi, mai complete; non crea opere musicali e non da consumare, oltretutto nella maggiorparte dei casi come succede sempre più spesso, passivamente; quello che magari viene creato con il REBOP (che poi è solo una fotografia di una piccola parte dell'intero processo), può certamente essere condiviso Open Source, può essere quindi fonte di ispirazione e di studio, può essere analizzato e esplorato, ma ha già esaurito la sua funzione primaria : quella di portare il compositore in uno stato meditativo intenso, che è poi la funzione primaria dell'intero processo del REBOP; il REBOP è un viaggio esplorativo di Codifica Live, Realtime, Just In Time Programming, verso nuove e non ordinarie possibilità, compositive e non; il REBOP non è un fine ma un mezzo; il REBOP dalla Composizione Realtime, a tendere, si allargherà per pervadere e comprendere ogni momento e aspetto della vita quotidiana, in termini situazionisti;
Per i nostri scopi, "meditativo" non ha nulla a che fare con l'entrare in trance, elevarsi, fuggire dalla realtà, non ha nulla a che fare con l'auto-aiuto, con il superare malattie mentali o capire come gli algoritmi o la codifica "estendano" la mente. Queste potrebbero essere conseguenze secondarie estemporanee anche non desiderabili. Né il REBOP tratta di bellezza o di godimento di un'esperienza pura ed estetica. "Meditativo", in questo testo, ha a che fare con il coltivare la consapevolezza del momento presente.
Per i nostri scopi, "meditativo" non ha nulla a che fare con l'entrare in trance, elevarsi, fuggire dalla realtà, non ha nulla a che fare con l'auto-aiuto, con il superare malattie mentali o capire come gli algoritmi o la codifica "estendano" la mente. Queste potrebbero essere conseguenze secondarie estemporanee anche non desiderabili. Né il REBOP tratta di bellezza o di godimento di un'esperienza pura ed estetica. "Meditativo", in questo testo, ha a che fare con il coltivare la consapevolezza del momento presente.
Se il nostro intento è generare opere musicali durante la codifica e l'esplorazione realtime, qualsiasi idea su come confezionarle, venderle o distribuirle o su cosa fare affinchè risultino interessanti a un ipotetico pubblico anche virtuale, ci allontana inevitabilmente dal momento presente. Se, durante il REBOP, i nostri pensieri vagano assorbiti dalle preoccupazioni su come presentare e rappresentare il nostro lavoro in futuro, allora abbiamo lasciato nuovamente il momento presente.
Confrontare il lavoro che si sta creando con altri lavori precedenti, ci porta dal presente al passato. Abbiamo bisogno di capire come l'intenzione di creare opere musicali influenzi il potenziale meditativo della nostra esperienza.
I compositori sperimentali non sono in genere interessati a prescrivere un oggetto temporale definito i cui materiali, strutture e relazioni siano calcolati e disposti in anticipo, ma sono più eccitati dalla prospettiva di delineare una situazione in cui possono verificarsi suoni e melodie, un processo di generazione di suoni, uno spazio magari delimitato da certe "regole non regole" compositive.
Oltre a lasciare andare le idee sull'opera musicale durante gli eventi di codifica e esplorazione realtime, faremmo anche bene a lasciare andare le nostre idee sulla musica. Se l'obiettivo durante la codifica REBOP meditativa è lasciare andare il giudizio, allora una musica definita come "ordinata", "gradevole", "espressiva" o "bella" non ci offre nulla. La musica generata durante il REBOP può comunque essere ordinata, gradevole, espressiva, per alcuni e per il compositore stesso, ma questo non è lo scopo del REBOP, come non lo sono venderla o ottenere apprezzamenti; per la codifica REBOP esplorativa, dobbiamo spostare l'enfasi dagli oggetti musicali alle attività musicali; porre attenzione al processo REBOP e lasciare andare gli oggetti musicali, semplicemente osservarli;
Quando spostiamo il nostro pensiero dagli oggetti musicali e iniziamo a osservare attività, relazioni e eventi, riduciamo la necessità di raggiungere o ottenere, e creiamo spazio per sperimentare.
Per il Rebopper qualsiasi scoperta può essere "vera"; un Rebopper considera qualsiasi ipotesi o analisi e misura le sue conseguenze pratiche per determinare ciò che può migliorare l'esperienza.
I praticanti del Pali-language Theravada (Buddhisti) usano il canto specificamente per coltivare la consapevolezza e non descrivono i suoni che producono come "musica".
Il REBOP ci chiede di rimanere nel momento, il che richiede meno sforzo quando vediamo un processo di codifica e esplorazione realtime come un'attività che non deve produrre certe cose o conformarsi a regole immaginarie come quelle che definiscono le opere musicali.
Strettamente legato al free jazz e spesso associata a musicisti come John Zorn, Anthony Braxton e Derek Bailey, l'improvvisazione libera è nota per la sua mancanza di regole. I Rebopper possono iniziare con l'editor vuoto o da un codice preparato in anticipo e gradualmente allontanarsene; scartano completamente le nozioni di lavoro musicale e lasciano cadere i giudizi sugli oggetti musicali per porre attenzione al processo di esplorazione e codifica REBOP;
Non dobbiamo mai giudicare un'esperienza di codifica e esplorazione realtime come un fallimento, un successo o peggio come qualcosa di neutrale. La realtà è che "solo prestare attenzione" è tanto difficile quanto semplice. Va contro il nostro condizionamento culturale il fatto che la produzione musicale non porti alcuna informazione e che non significhi nulla. Ma se codificare REBOP diventa un'esperienza meditativa che coltiva la consapevolezza, allora possiamo iniziare riconoscendo come le nostre idee sulle opere musicali, sulla musica e sull'interpretazione influenzino le nostre esperienze. Per fortuna, è difficile aggrapparsi a idee che contraddicano l'esperienza personale, quindi anche solo vivere un piccolo momento di un evento di codifica e esplorazione realtime senza giudizio può avere un impatto duraturo e positivo e portarci a consapevolezze altre.
il REBOP è un'esplorazione in tempo reale al di là delle ordinarie possibilità; quali sono le mie ordinarie possibilità come artista, musicista mashupper? con il REBOP sto esplorarando altre possibilità compositive e non attraverso la composizione algoritmica e il live coding ('on-the-fly programming','just in time programming', 'conversational programming', 'slow coding', 'realtime coding'); ma è una composizione appunto fatta per altri scopi, come appunto coltivare la consapevolezza del momento presente; il REBOP è intelligenza giocosa, è improvvisazione, spontaneità, è esplorazione, hacking; cè molto REBOP anche nello SnowCrash Project anche se apparentemente questo non risulta evidente;
Il termine REBOP (prima versione del più conosciutò BEBOP) è un'onomatopea che imita una brevissima frase di due note usata talvolta nell'ambito del jazz come "segnale" per terminare un brano;
Diverse parti del testo sono frutto della traduzione e della rielaborazione di frammenti dell'articolo "Meditative Live Coding and Musicological Hindrances" di Matthew Tift Lullabot
il REBOP è un'esplorazione in tempo reale al di là delle ordinarie possibilità; quali sono le mie ordinarie possibilità come artista, musicista mashupper? con il REBOP sto esplorarando altre possibilità compositive e non attraverso la composizione algoritmica e il live coding ('on-the-fly programming','just in time programming', 'conversational programming', 'slow coding', 'realtime coding'); ma è una composizione appunto fatta per altri scopi, come appunto coltivare la consapevolezza del momento presente; il REBOP è intelligenza giocosa, è improvvisazione, spontaneità, è esplorazione, hacking; cè molto REBOP anche nello SnowCrash Project anche se apparentemente questo non risulta evidente;
Il termine REBOP (prima versione del più conosciutò BEBOP) è un'onomatopea che imita una brevissima frase di due note usata talvolta nell'ambito del jazz come "segnale" per terminare un brano;
Diverse parti del testo sono frutto della traduzione e della rielaborazione di frammenti dell'articolo "Meditative Live Coding and Musicological Hindrances" di Matthew Tift Lullabot
Tecniche interattive e composizione algoritmica. Un'introduzione
1. Introduzione
Le tecniche interattive e la composizione algoritmica in tempo reale assumono una grande importanza nelle opere, mie e di altri compositori, in cui l'elaboratore è al centro della produzione di eventi musicali.
Questo documento intende esporre in modo semplice anche se per forza di cose incompleto, l'utilizzo che si è fatto di tecniche interattive e per la composizione algoritmica in tempo reale ed in generale fornire al lettore una panoramica sull'argomento qui trattato.
Si intende anche delineare, in modo sintetico, le necessità che hanno spinto, in precedenza, altri compositori ad utilizzare tecniche interattive nei lori pezzi, assieme ad una breve panoramica di precedenti realizzazioni di questo tipo.
2. Uno sguardo al passato
Per prima cosa definiamo il concetto di composizione algoritmica.
Si definisce come algoritmico quel processo musicale che si svolge, prevalentemente mediante elaboratore digitale, in base ad un ben determinato schema che viene utilizzato per la generazione delle strutture musicali. L'oggetto del comporre, in questo caso, non sono gli eventi sonori in senso stretto (altezze, durate, timbro), ma il processo stesso di composizione.
Per composizione algoritmica si intende quindi la composizione, a partire da qualche materiale preesistente, mediante tecniche definite, con o senza l'uso dell'elaboratore elettronico di materiale musicale originale o riconducibile al materiale di partenza.
I primi esempi di composizione algoritmica si possono ravvisare nel XVIII secolo, quando si diffuse tra compositori come Bach, Haydn e Haendel il divertimento di comporre musica mediante l' utilizzo dei dadi.
Nel 1757 Kirnberger pubblicò la guida alla composizione delle polonaise e dei minuetti con l'aiuto dei dadi.
Si deve inoltre a W.A. Mozart la pubblicazione di un manuale per la composizione di Valzer con l'aiuto dei dadi.
Il manuale conteneva una tabella ad otto linee (corrispondenti alle otto battute della composizione) e sei colonne (corrispondenti alle facce di un dado). In ogni casella di questa tabella si trovava una sequenza di note della durata di una battuta.
Le otto battute si ottenevano gettando il dado otto volte e scegliendo le note corrispondenti alla casella individuata dal numero ottenuto in base al lancio dei dadi e dalla battuta in costruzione. Il numero delle possibili composizioni è dato da :
6
8
= 1.679.616
L'abilità del compositore stava nel preparare la tabella in modo che ogni combinazione di note scritta in una casella potesse gradevolmente proseguire con una qualsiasi combinazione di note contenuta in una successiva casella.
Nel nostro secolo, uno tra i primi compositori ad utilizzare tecniche di composizione algoritmica è senza dubbio John Cage.
In John Cage, le tecniche di composizione algoritmica si potrebbero definire IN TEMPO DIFFERITO, in quanto consistevano per lo più di istruzioni date ai performers per selezionare o generare elementi più o meno estesi della composizione come ad esempio i fogli che compongono il brano o per generare dal nulla gli eventi sonori stessi.
Solo più tardi, quando la tecnologia lo ha reso possibile (vedi elaboratori digitali) John Cage, affiancato dal programmatore Andrew Culver ha realizzato delle vere e proprie composizioni algoritmiche che, comunque, forse per abitudine, non erano destinate all'utilizzo in tempo reale.
Erano dei veri e propri generatori di materiale musicale ma non solo; venivano generati anche parametri relativi alla disposizione di sedie e luci, ed altro.
3. La composizione algoritmica
Un utilizzo originale di tecniche compositive di tipo algoritmico si deve al compositore greco Iannis Xenakis. Inizialmente attivo nell'area dell'architettura (fu collaboratore di Le Corbusier), egli elabora un personale utilizzo di processi naturali, teorie fisiche e matematiche (termodinamica, calcolo combinatorio) per creare delle collezioni di eventi sonori individuali che concorrono in modo aleatorio ad un'esplosione fonica globale.
Stimolato dalle originali idee di Dennis Gabor (Gabor, 1947) egli tende a lavorare sia a livello maro che micro-strutturale per 'nuvole' di eventi sonori, trascurando il particolare per interessarsi piuttosto della globalità dell'opera.
Il ruolo dell'elaboratore nella composizione algoritmica è fondamentale in quanto ci permette di passare da un processo che avviene PRIMA della trascrizione degli eventi musicali su spartito o della realizzazione del nastro magnetico, alla generazione degli eventi sonori in tempo reale con una eventuale interazione tra esecutore ed elaboratore.
Il tema dell'interazione tra esecutore ed elaboratore è centrale, in quanto grazie alle nuove tecnologie si è superata la dicotomia nastro-esecutore tipica della musica elettronica dal suo nascere fino ai primi anni Ottanta.
Sicuramente è grazie all'elaboratore personale che la composizione algoritmica ha avuto quello sviluppo che tuttora noi osserviamo; la disponibilità di tale tecnologia anche al di fuori dei grossi centri di elaborazione e la contemporanea disponibilità di sintetizzatori operanti secondo lo standard MIDI, ha consentito anche ai singoli compositori di realizzare sistemi per la composizione algoritmica.
Aver portato il computer fuori dai grossi centri di ricerca, oltre ad una ovvia democratizzazione del mezzo (accessibilità, economicità), ha permesso di superare il tipico connubio nastro esecutore o alle performance per solo nastro o per solo elaboratore.
Comunque, dai grossi centri di ricerca sono venuti gli stimoli maggiori per la realizzazione di sistemi in tempo reale, anche se, storicamente, in quei centri, la ricerca musicale si è sviluppata prevalentemente verso l'aspetto timbrico.
Contemporaneamente a queste ricerche, che avvenivano principalmente nei grossi centri di ricerca, si è visto un fiorire di software musicale per elaboratori personali e principalmente per i computers Apple Macintosh ed Atari serie ST che vanno dai semplici sequencers (Vision, Cubase, Notator) ai più complessi programmi per le gestione di eventi sonori con metodologie algoritmiche (Jam Factory, M!) ai veri e propri ambienti di programmazione, dedicati e non alle applicazioni musicali (Formula , HTMSL, HyperLisp, Max ) agli editors di campionamenti e timbri di sintetizzatori (TurboSynth, Alchemy, Galaxy).
Vogliamo qui ricordare i compositori Larry Polansky e Tod Machover che, seguendo strade e tecnologie diverse, per il primo il linguaggio HMSL e le scale microtonali, per il secondo l'utilizzo di DataGloves e del linguaggio HyperLisp, hanno realizzato veri e propri capolavori del genere.
Un ruolo importantissimo nella ricerca sui sistemi in tempo reale è stato espletato dall'IRCAM, centro parigino di ricerca fondato e diretto per molti anni dal compositore francese Pierre Boulez, autore a sua volta di importanti opere che utilizzano sistemi in tempo reale. All'IRCAM nei primi anni Ottanta Giuseppe di Giugno ha realizzato le sue macchine della serie 4, e sempre all'IRCAM il linguaggio MAX è stato concepito.
Si vuole inoltre ricordare l'importante contributo del compositore e ricercatore Rober Rowe che realizza, per le proprie esigenze compositive un programma per Macintosh denominato "Cypher".
4. Tecniche compositive
Iniziamo qui una breve introduzione alle tecniche compositive che, di norma vengono impiegate nei processi di composizione algoritmica. Il problema principale è quello di generare 'dal nulla' degli eventi musicali.
Abbiamo visto nella parte introduttiva un semplice esempio di processo musicale che dà luogo alla generazione di eventi sonori, in quel caso strutturati nella forma di valzer.
In generale, è possibile implementare ogni meccanismo mentale a sua volta descrivibile mediante una sequenza di operazioni elementari sotto forma di un algoritmo. E' così possibile utilizzare come fonte di partenza delle equazioni matematiche che descrivono dei fenomeni caotici, naturali e non, come pure realizzare alcuni algoritmi che trasformino materiale musicale preesistente applicando le operazioni tipiche della teoria dodecafonica.
Altri formalismi spesso utilizzati sono quelli che fanno uso di catene di Markov come pure ogni altro tipo di equazione differenziale che porti ad una generazione stocastica di eventi, interpretati poi musicalmente.
5. Tecniche interattive
Ciò che rende la Computer Music attuale così stimolante è però la possibilità di interazione tra l'elaboratore e l'esecutore.
Nel caso di performances ci sarà interazione tra il computer ed il performer, nel caso di installazioni ci sarà interazione tra il computer e l'audience. Le tecniche interattive ci permettono quindi di realizzare situazioni sonore sempre vive e diverse a causa della diversità di interazione tra il computer e ciò che egli accetta come input dall'esterno.
Possiamo difatti distinguere tre diverse fasi in un sistema per la Computer Music Interattiva:
La prima è la fase di 'sensing' o di ascolto nella quale si analizzano e memorizzano eventi che hanno origine da 'strumenti' (devices) controllati dai performers o dai sensori che catturano eventi esterni come il movimento dell'audience o un cambiamento della temperatura ambientale.
La seconda fase è quella di 'processing' o di elaborazione, quando le informazioni raccolte durante la prima fase vengolo elaborate dal sistema ed eventualmente trasformate. Ai dati in input possono aggiungersi dati che vengono generati durante questa fase senza nessuna relazione con la prima.
La terza fase e quella di 'response' o di risposta del sistema quando il risultato musicale dell'intero processo viene, mediante schede sonore o sintetizzatori e campionatori MIDI realizzato per l'ascolto sonoro.
Le tre fasi vengono delineate in questo modo perchè corrispondono a diversi tipi di devices da utilizzare: nella prima fase controllers midi come tastiere, pedali, pitch trackers, nella seconda un'unità di elaborazione (personal computer o dispositivo dedicato) nella terza sintetizzatori, campionatori, schede sonore.
Tra i vari dispositivi di input ricordiamo inoltre i DataGloves ed in particolare l'economico Powerglove della Nintendo che permettono al performer di interagire in modo 'virtuale' con il computer rendendo possibile l'elaborazione di informazioni relative alla posizione nello spazio del guanto, alla sua torsione ed alla flessione delle dita.
Inoltre resta aperta la possibilità di collegare al computer, con apposite interfacce realizzate allo scopo, una serie di devices come sensori all'infrarosso e ad ultrasuoni, ricevitori radio, telecamere, etc.
6. Un utilizzo personale
Sin da quando queste tecnologie si sono rese disponibili, il mio interesse verso di esse fu notevole, a partire dalle idee del compositore Mauro Graziani da lui ben esposte nel Bollettino del LIMB.
In "Isole" tale approccio è solo accennato: per la scarsa disponibilità di software/hardware adatto allo scopo avevo deciso di adottare per l'occasione alcuni nastri ed un sequencer.
La disponibilità, nel 1991 di Max mi ha aperto sicuramente nuove strade, portandomi alla realizzazione di FELE, installazione interattiva multimediale dove faccio uso di un sistema interattivo in tempo reale con composizione algoritmica degli eventi.
In "Fele" ho utilizzato per la parte di 'sensing' dei sensori all'infrarosso e alle microonde che rilevando i movimenti dell'audience, rendevano il campo sonoro realizzato continuamente mutevole ed interessante.
Per la parte di processing ho deciso di utilizzare algoritmi che fanno uso di tabelle dove ho memorizzato alcune curve di marea. Da meccanismi di alea controllata riesco a ricavare, in base a queste tabelle, gli eventi sonori, definiti di volta in volta secondo macroparametri identificativi ma, come singoli eventi, sempre diversi.
In "Chaos Logos Kronos", utilizzerò per la parte di sensing una tastiera MIDI con pedali e switch ed un Powerglove che controllerà diversi parametri esecutivi tra cui il cambio di stato del pezzo.
In Sky Waves, invece, ho utilizzato per la parte di sensing dei ricevitori radio ad onde corte che inviano all'elaboratore centrale dati meteo trasmessi da una serie di stazioni meteo sparse in una certa zona.
1. Introduzione
Le tecniche interattive e la composizione algoritmica in tempo reale assumono una grande importanza nelle opere, mie e di altri compositori, in cui l'elaboratore è al centro della produzione di eventi musicali.
Questo documento intende esporre in modo semplice anche se per forza di cose incompleto, l'utilizzo che si è fatto di tecniche interattive e per la composizione algoritmica in tempo reale ed in generale fornire al lettore una panoramica sull'argomento qui trattato.
Si intende anche delineare, in modo sintetico, le necessità che hanno spinto, in precedenza, altri compositori ad utilizzare tecniche interattive nei lori pezzi, assieme ad una breve panoramica di precedenti realizzazioni di questo tipo.
2. Uno sguardo al passato
Per prima cosa definiamo il concetto di composizione algoritmica.
Si definisce come algoritmico quel processo musicale che si svolge, prevalentemente mediante elaboratore digitale, in base ad un ben determinato schema che viene utilizzato per la generazione delle strutture musicali. L'oggetto del comporre, in questo caso, non sono gli eventi sonori in senso stretto (altezze, durate, timbro), ma il processo stesso di composizione.
Per composizione algoritmica si intende quindi la composizione, a partire da qualche materiale preesistente, mediante tecniche definite, con o senza l'uso dell'elaboratore elettronico di materiale musicale originale o riconducibile al materiale di partenza.
I primi esempi di composizione algoritmica si possono ravvisare nel XVIII secolo, quando si diffuse tra compositori come Bach, Haydn e Haendel il divertimento di comporre musica mediante l' utilizzo dei dadi.
Nel 1757 Kirnberger pubblicò la guida alla composizione delle polonaise e dei minuetti con l'aiuto dei dadi.
Si deve inoltre a W.A. Mozart la pubblicazione di un manuale per la composizione di Valzer con l'aiuto dei dadi.
Il manuale conteneva una tabella ad otto linee (corrispondenti alle otto battute della composizione) e sei colonne (corrispondenti alle facce di un dado). In ogni casella di questa tabella si trovava una sequenza di note della durata di una battuta.
Le otto battute si ottenevano gettando il dado otto volte e scegliendo le note corrispondenti alla casella individuata dal numero ottenuto in base al lancio dei dadi e dalla battuta in costruzione. Il numero delle possibili composizioni è dato da :
6
8
= 1.679.616
L'abilità del compositore stava nel preparare la tabella in modo che ogni combinazione di note scritta in una casella potesse gradevolmente proseguire con una qualsiasi combinazione di note contenuta in una successiva casella.
Nel nostro secolo, uno tra i primi compositori ad utilizzare tecniche di composizione algoritmica è senza dubbio John Cage.
In John Cage, le tecniche di composizione algoritmica si potrebbero definire IN TEMPO DIFFERITO, in quanto consistevano per lo più di istruzioni date ai performers per selezionare o generare elementi più o meno estesi della composizione come ad esempio i fogli che compongono il brano o per generare dal nulla gli eventi sonori stessi.
Solo più tardi, quando la tecnologia lo ha reso possibile (vedi elaboratori digitali) John Cage, affiancato dal programmatore Andrew Culver ha realizzato delle vere e proprie composizioni algoritmiche che, comunque, forse per abitudine, non erano destinate all'utilizzo in tempo reale.
Erano dei veri e propri generatori di materiale musicale ma non solo; venivano generati anche parametri relativi alla disposizione di sedie e luci, ed altro.
3. La composizione algoritmica
Un utilizzo originale di tecniche compositive di tipo algoritmico si deve al compositore greco Iannis Xenakis. Inizialmente attivo nell'area dell'architettura (fu collaboratore di Le Corbusier), egli elabora un personale utilizzo di processi naturali, teorie fisiche e matematiche (termodinamica, calcolo combinatorio) per creare delle collezioni di eventi sonori individuali che concorrono in modo aleatorio ad un'esplosione fonica globale.
Stimolato dalle originali idee di Dennis Gabor (Gabor, 1947) egli tende a lavorare sia a livello maro che micro-strutturale per 'nuvole' di eventi sonori, trascurando il particolare per interessarsi piuttosto della globalità dell'opera.
Il ruolo dell'elaboratore nella composizione algoritmica è fondamentale in quanto ci permette di passare da un processo che avviene PRIMA della trascrizione degli eventi musicali su spartito o della realizzazione del nastro magnetico, alla generazione degli eventi sonori in tempo reale con una eventuale interazione tra esecutore ed elaboratore.
Il tema dell'interazione tra esecutore ed elaboratore è centrale, in quanto grazie alle nuove tecnologie si è superata la dicotomia nastro-esecutore tipica della musica elettronica dal suo nascere fino ai primi anni Ottanta.
Sicuramente è grazie all'elaboratore personale che la composizione algoritmica ha avuto quello sviluppo che tuttora noi osserviamo; la disponibilità di tale tecnologia anche al di fuori dei grossi centri di elaborazione e la contemporanea disponibilità di sintetizzatori operanti secondo lo standard MIDI, ha consentito anche ai singoli compositori di realizzare sistemi per la composizione algoritmica.
Aver portato il computer fuori dai grossi centri di ricerca, oltre ad una ovvia democratizzazione del mezzo (accessibilità, economicità), ha permesso di superare il tipico connubio nastro esecutore o alle performance per solo nastro o per solo elaboratore.
Comunque, dai grossi centri di ricerca sono venuti gli stimoli maggiori per la realizzazione di sistemi in tempo reale, anche se, storicamente, in quei centri, la ricerca musicale si è sviluppata prevalentemente verso l'aspetto timbrico.
Contemporaneamente a queste ricerche, che avvenivano principalmente nei grossi centri di ricerca, si è visto un fiorire di software musicale per elaboratori personali e principalmente per i computers Apple Macintosh ed Atari serie ST che vanno dai semplici sequencers (Vision, Cubase, Notator) ai più complessi programmi per le gestione di eventi sonori con metodologie algoritmiche (Jam Factory, M!) ai veri e propri ambienti di programmazione, dedicati e non alle applicazioni musicali (Formula , HTMSL, HyperLisp, Max ) agli editors di campionamenti e timbri di sintetizzatori (TurboSynth, Alchemy, Galaxy).
Vogliamo qui ricordare i compositori Larry Polansky e Tod Machover che, seguendo strade e tecnologie diverse, per il primo il linguaggio HMSL e le scale microtonali, per il secondo l'utilizzo di DataGloves e del linguaggio HyperLisp, hanno realizzato veri e propri capolavori del genere.
Un ruolo importantissimo nella ricerca sui sistemi in tempo reale è stato espletato dall'IRCAM, centro parigino di ricerca fondato e diretto per molti anni dal compositore francese Pierre Boulez, autore a sua volta di importanti opere che utilizzano sistemi in tempo reale. All'IRCAM nei primi anni Ottanta Giuseppe di Giugno ha realizzato le sue macchine della serie 4, e sempre all'IRCAM il linguaggio MAX è stato concepito.
Si vuole inoltre ricordare l'importante contributo del compositore e ricercatore Rober Rowe che realizza, per le proprie esigenze compositive un programma per Macintosh denominato "Cypher".
4. Tecniche compositive
Iniziamo qui una breve introduzione alle tecniche compositive che, di norma vengono impiegate nei processi di composizione algoritmica. Il problema principale è quello di generare 'dal nulla' degli eventi musicali.
Abbiamo visto nella parte introduttiva un semplice esempio di processo musicale che dà luogo alla generazione di eventi sonori, in quel caso strutturati nella forma di valzer.
In generale, è possibile implementare ogni meccanismo mentale a sua volta descrivibile mediante una sequenza di operazioni elementari sotto forma di un algoritmo. E' così possibile utilizzare come fonte di partenza delle equazioni matematiche che descrivono dei fenomeni caotici, naturali e non, come pure realizzare alcuni algoritmi che trasformino materiale musicale preesistente applicando le operazioni tipiche della teoria dodecafonica.
Altri formalismi spesso utilizzati sono quelli che fanno uso di catene di Markov come pure ogni altro tipo di equazione differenziale che porti ad una generazione stocastica di eventi, interpretati poi musicalmente.
5. Tecniche interattive
Ciò che rende la Computer Music attuale così stimolante è però la possibilità di interazione tra l'elaboratore e l'esecutore.
Nel caso di performances ci sarà interazione tra il computer ed il performer, nel caso di installazioni ci sarà interazione tra il computer e l'audience. Le tecniche interattive ci permettono quindi di realizzare situazioni sonore sempre vive e diverse a causa della diversità di interazione tra il computer e ciò che egli accetta come input dall'esterno.
Possiamo difatti distinguere tre diverse fasi in un sistema per la Computer Music Interattiva:
La prima è la fase di 'sensing' o di ascolto nella quale si analizzano e memorizzano eventi che hanno origine da 'strumenti' (devices) controllati dai performers o dai sensori che catturano eventi esterni come il movimento dell'audience o un cambiamento della temperatura ambientale.
La seconda fase è quella di 'processing' o di elaborazione, quando le informazioni raccolte durante la prima fase vengolo elaborate dal sistema ed eventualmente trasformate. Ai dati in input possono aggiungersi dati che vengono generati durante questa fase senza nessuna relazione con la prima.
La terza fase e quella di 'response' o di risposta del sistema quando il risultato musicale dell'intero processo viene, mediante schede sonore o sintetizzatori e campionatori MIDI realizzato per l'ascolto sonoro.
Le tre fasi vengono delineate in questo modo perchè corrispondono a diversi tipi di devices da utilizzare: nella prima fase controllers midi come tastiere, pedali, pitch trackers, nella seconda un'unità di elaborazione (personal computer o dispositivo dedicato) nella terza sintetizzatori, campionatori, schede sonore.
Tra i vari dispositivi di input ricordiamo inoltre i DataGloves ed in particolare l'economico Powerglove della Nintendo che permettono al performer di interagire in modo 'virtuale' con il computer rendendo possibile l'elaborazione di informazioni relative alla posizione nello spazio del guanto, alla sua torsione ed alla flessione delle dita.
Inoltre resta aperta la possibilità di collegare al computer, con apposite interfacce realizzate allo scopo, una serie di devices come sensori all'infrarosso e ad ultrasuoni, ricevitori radio, telecamere, etc.
6. Un utilizzo personale
Sin da quando queste tecnologie si sono rese disponibili, il mio interesse verso di esse fu notevole, a partire dalle idee del compositore Mauro Graziani da lui ben esposte nel Bollettino del LIMB.
In "Isole" tale approccio è solo accennato: per la scarsa disponibilità di software/hardware adatto allo scopo avevo deciso di adottare per l'occasione alcuni nastri ed un sequencer.
La disponibilità, nel 1991 di Max mi ha aperto sicuramente nuove strade, portandomi alla realizzazione di FELE, installazione interattiva multimediale dove faccio uso di un sistema interattivo in tempo reale con composizione algoritmica degli eventi.
In "Fele" ho utilizzato per la parte di 'sensing' dei sensori all'infrarosso e alle microonde che rilevando i movimenti dell'audience, rendevano il campo sonoro realizzato continuamente mutevole ed interessante.
Per la parte di processing ho deciso di utilizzare algoritmi che fanno uso di tabelle dove ho memorizzato alcune curve di marea. Da meccanismi di alea controllata riesco a ricavare, in base a queste tabelle, gli eventi sonori, definiti di volta in volta secondo macroparametri identificativi ma, come singoli eventi, sempre diversi.
In "Chaos Logos Kronos", utilizzerò per la parte di sensing una tastiera MIDI con pedali e switch ed un Powerglove che controllerà diversi parametri esecutivi tra cui il cambio di stato del pezzo.
In Sky Waves, invece, ho utilizzato per la parte di sensing dei ricevitori radio ad onde corte che inviano all'elaboratore centrale dati meteo trasmessi da una serie di stazioni meteo sparse in una certa zona.
Dal 14 al 17 febbraio si è tenuto un importante Algorave: 84 ore di musica non-stop in quella che è stato probabilmente la più grande manifestazione musicale totalmente online di sempre. Il 14 febbraio è stato il quindicesimo anniversario della nascita di TOPLAP, la comunità internazionale online di musicisti attivi nel live coding, ovvero musicisti che improvvisano musica programmando in tempo reale.
Come racconta un post pubblicato sul sito della community, il 14 febbraio del 2004, meno di una decina di live coder si trovarono ad Amburgo per incontrarsi e conoscersi. Persone provenienti da diverse parti del mondo, pionieri di un metodo di fare musica che ancora molti osteggiano, anche se la community conta ora più di 2000 persone iscritte alla chat collettiva di TOPLAP.
Un movimento che si è gradualmente ampliato, quindi, mantenendo come tratto distintivo l’idea di usare il computer come un vero e proprio strumento musicale da sfruttare in performance improvvisate e live. Il secondo aspetto caratteristico di TOPLAP è nei primi due punti del manifesto: totale apertura della conoscenza musicale, degli strumenti utilizzati e del processo creativo. I live coder di TOPLAP mostrano lo schermo al pubblico in modo che tutti possano vedere come programmano. Un modo per ricostruire la gestualità della performance musicale, che vari esperti individuano come fondamentale per la fruizione della musica. Una messa in mostra che non deve però scadere in ostentazione della tecnica perché, come scritto nel manifesto, “non deve essere necessario per il pubblico capire il codice per apprezzarlo, tanto come non è necessario saper suonare una chitarra per apprezzare la visione di una performance chitarrristica”.
Se la pratica di produrre musica con i computer improvvisando è ben più antica e risale almeno agli anni ’80, il merito di TOPLAP è stato quello di organizzare la sottocultura del live coding e di creare gli strumenti, anche se rudimentali, per mettere in comunicazione gli artisti, arrivando a una definizione piuttosto precisa del movimento.
La rapida crescita di TOPLAP, soprattutto negli ultimi anni, è un fenomeno da non sottovalutare e che, anzi, può offrire ai musicisti una nuova opportunità per rilanciare il significato dei live nell’era delle registrazioni digitali, che ci hanno abituato a una musica che produce opere immutabili nel tempo, che restano sempre uguali, oggi come dieci anni fa.
7 motivi per i quali il live coding crescerà
Il live coding continuerà a evolversi, a crescere, e resterà uno dei più interessanti movimenti musicali di questo secolo. Mentre proviamo a spiegare il perché, è possibile ascoltare in sottofondo qualche video tra quelli che ho selezionato privilegiando la varietà stilistica:Alexandra Cárdenas – street code, Andrew Sorensen – jazz, Ganzfeld – sperimentale, Shelly Knots – sperimentale, Benoît and the Mandelbrots – etnica/sperimentale, Sam Aaron – dance.
1. I Live Coder vengono da due controculture e ne hanno creata una nuova
Il live coding nasce, in breve, dall’incontro di due sottoculture: quella degli hacker e quella della musica elettronica, con frequenti riferimenti alla cultura rave. Nonostante la community sia concorde nel ritenere la cultura rave come una sola delle tante componenti del live coding, il risultato è la perfetta unione delle due: ci sono gli ideali di condivisione della conoscenza e il rifiuto delle gerarchie. L’organizzazione riprende gli strumenti “da nerd” che si pongono in alternativa all’accentramento di internet, mentre le discussioni estetiche rifiutano il pensiero dominante delle accademie (o il presunto tale). «La scena del live coding – scrive Alexandra Cárdenas – è un prototipo di comunità utopica dove chiunque può contribuire, sia che suoni da un giorno che da dieci anni. È una questione politica, che ha a che fare con l’integrazione delle diversità in comunità diverse». Sul sito della International Conference on Live Coding, che raccoglie la componente accademica del movimento, si fa esplicito riferimento al rifiuto di ogni commento verbale o atteggiamento offensivo relativo a “genere, identità ed espressione di genere, orientamento sessuale, disabilità, aspetto fisico, corporatura, razza, religione”. Ci vorrebbe tempo per un’analisi accurata della cultura live coding, data la mole delle testimonianze e delle tracce lasciate in rete durante questi 15 anni, tra mailing-list, chat, wiki, repository e siti web.
2. I Live Coder sono sia popular che accademici
Buona parte della community dei live coder ha un’esperienza nel mondo accademico, spesso in contesti vicini alla ricerca in nuove tecnologie musicali. In un certo senso, tanto più sono elevate le conoscenze scientifiche del live coder, tanto più questi è avvantaggiato nel tentativo di raggiungere nuove soluzioni espressive, perché già oggi il live coding sfrutta tecniche allo stato dell’arte della produzione e delle interfacce musicali. In altre parole, molti live coder si creano autonomamente gli strumenti e le librerie di cui hanno bisogno. Questa vicinanza con l’ambiente musicologico e al contempo con il mondo popular della dance music è decisamente singolare per il periodo storico in cui viviamo, in cui la musica “accademica” è ancora circoscritta a un piccolo gruppo elitario di addetti ai lavori, proprio come nel secolo scorso. Sembra, insomma, che nel mondo del live coding il gusto popolare stia finalmente ritrovando aspetti comuni alla musica più “studiata”.
3. Il Live Coding è live
L’aspetto di improvvisazione del live coding è la sua caratteristica essenziale. Ancora una volta, è in controtendenza rispetto alla cultura dominante, in cui le registrazioni in studio sono il principale mezzo per fruire musica. Ultimamente però, i grandi servizi di streaming stanno stimolando un nuovo modo di percepire la traccia registrata: non andiamo più a comprare un disco al negozio per aggiungerlo alla nostra collezione, ma piuttosto accendiamo lo smartphone e scegliamo una canzone in un catalogo enormemente più grande di quello del vecchio negozio di dischi. Non abbiamo più la necessità di filtrare la musica che ascoltiamo in base alla descrizione, né dobbiamo adeguarci a riascoltare lo stesso disco perché in casa abbiamo un elenco limitato. Non siamo più portati, insomma, a riascoltare in continuazione la stessa musica, ma piuttosto a cercarne di nuova; perde forza il fattore che ha scatenato moltissimi cambiamenti culturali nelle pratiche musicali del Novecento. L’improvvisazione nel live coding, oltre a essere perfettamente coerente con la controcultura live coding, potrebbe rivelarsi l’arma giusta per inserirsi in questo nuovo contesto sociale dove si ascolta una canzone e la si dimentica (quasi) immediatamente.
4. Il Live Coding apre nuovi scenari senza distruggere il passato
Le possibilità tecniche che offre la computer music sono virtualmente infinite. Eppure, forse anche forte dell’esperienza della prima musica elettronica (per esempio quella di Schaeffer e Stockhausen), di fronte a così tante nuove possibilità, il live coding non si è posto in totale rottura con il linguaggio musicale in uso, ma ha deliberatamente scelto di richiamarsi a generi ben definiti. In realtà, i live coder spaziano su tutti i generi musicali esistenti, dalla dance al jazz e al pop fino alla musica più avanguardistica. Anche in questo, in effetti, è innovativo: è un non-genere musicale, che non basa la sua identità sulle strutture semantico-musicali che servono alle case discografiche per settorizzare il mercato, bensì sul mezzo della sua produzione. Se c’è un elemento del linguaggio onnipresente nel live coding è probabilmente la ripetizione di pattern e insieme la casualità nella loro generazione, il che rimanda alla musica minimalista; questo però è dovuto ai limiti delle attuali librerie per la composizione algoritmica e non alla pratica del live coding di per sè. In generale, il live coding si pone nell’ottica di innovare qualcosa di esistente, anziché distruggerlo, e non ha alcuna pretesa di fare qualcosa di migliore rispetto al passato.
5. Il live coding è multimediale
Forse l’aspetto migliore del live coding è la sua multimedialità. L’attività musicale è spesso collegata ad attività di arti visive, sempre live coded. Musicisti e digital artist si uniscono per creare performance a più livelli, a volte – raramente in realtà – con messaggi testuali espliciti proiettati sullo schermo. In alcune occasioni i live coder interagiscono anche con attori, altri musicisti o altro. La performance non è limitata all’uso del computer, che si pone più come una cabina di regia che come vero e proprio strumento.
6. Il Live Coding non ha virtualmente limiti espressivi
Dagli anni ’50 a oggi, la computer music ha creato una grande quantità di strumenti, pratici e teorici. Oggi sappiamo come possiamo produrre suoni di ogni tipo con un computer, simulando timbri di oggetti reali o inventandone di nuovi. Sappiamo come modificare i parametri di esecuzioni musicali per ottenere espressività ed emotività differenti e sappiamo anche come creare automaticamente musica in modo simile all’uomo. Ok, quest’ultimo punto è vero solo in parte, ma è abbastanza comune lasciare che il computer produca autonomamente musica che rispetti particolari vincoli, come la musica che scrive l’uomo. Quello che voglio dire è che l’implementazione di algoritmi simili in un sistema per il live coding non è impensabile, sebbene difficile per una community piccola e iper-frammentata come quella di TOPLAP.
7. Il Live Coding è ancora un neonato
Nonostante sia nata 15 anni fa e sebbene sia cresciuta enormemente, TOPLAP è ancora piuttosto piccola. Le tecnologie musicali sono in costante crescita ma la community si è finora concentrata sulle possibili interfacce, sperimentando linguaggi di programmazione visuali, ibridi e testuali, soffermandosi in particolare sui linguaggi di programmazione funzionali. Personalmente, per quel poco che ho provato, credo che il live coding possa fare grandi salti di qualità implementando altre tecnologie (come quelle citate al punto precedente), che prescindono dall’interfaccia usata. I metodi esistenti nella computer music sono utilizzabili nei contesti live coding per via del fatto che non è necessario lo sviluppo di un’intera interfaccia grafica e il mantenimento di compatibilità tra componenti complessi come invece nei software commerciali per la produzione musicale. Un esempio di progetto di ricerca che vuole portare questo genere di innovazioni in contesti musicali real-time è MIMIC.
Ciò che è mancato finora è stata una grande mente musicale che sapesse fare un grande uso delle tecnologie e che fosse in grado di presentarle al mondo come un nuovo metodo capace di interagire con altri soggetti espressivi (musicisti, attori, performer, etc.), senza porre il live coding come alternativa agli approcci tradizionali. Senza voler offendere gli attuali live coder, nella mia ricerca ho sentito solo una manciata performance che raggiungevano alti livelli artistici, e non a causa della difficoltà tecnica – che verrà comunque lentamente abbattuta. Insomma, musicisti, fatevi avanti perché qui c’è terreno per voi! Fonte : Link
È difficile scrivere una definizione semplice per qualcosa così vario come l'hacking; ha a che fare con la giocosità, l'intelligenza e l'esplorazione. Hacking significa esplorare i limiti di ciò che è possibile, con uno spirito di giocosa intelligenza. Le attività che mostrano intelligenza giocosa hanno un "hack value";
Entrare in un computer è una cosa diversa. Preferisco chiamare questa cosa "cracking", perché quando dico che sono un "hacker", non significa che mi diverto a violare la sicurezza dei sistemi informatici e voglio che le persone lo capiscano. Basta con questo stereotipo dell'hacker drogato, depresso e dissociato, che penetra sistemi informatici e spia profili facebook, cagatoci in testa dal Mainstrem con i vari Mr.Robot (per i rintronati che continuano ad associarmi a Mr.Robot); l'hacker è una persona lucida, curiosa, giocosa, creativa e virtuosa;
Gli hacker fanno quello che fanno perché lo amano. Non lo fanno per soldi, ci sono davvero dentro. Qualunque sia la loro passione, programmazione, poesia, arte, composizione videomusicale, elettronica, live coding, musica, imparano il più possibile, creano, rielaborano, migliorano, e poi condividono con il mondo.
"L'hacker è una persona che trae piacere dalla sfida intellettuale di scavalcare o aggirare creativamente dei limiti;"
"gli hacker credono che gli insegnamenti fondamentali sui sistemi – e sul mondo – possano essere appresi smontando le cose, analizzandone il funzionamento e utilizzando la conoscenza per creare cose nuove e più interessanti; sono artisti, scienziati matti in continua esplorazione, pronti a mettere in discussione qualsiasi cosa, senza paura;"
Entrare in un computer è una cosa diversa. Preferisco chiamare questa cosa "cracking", perché quando dico che sono un "hacker", non significa che mi diverto a violare la sicurezza dei sistemi informatici e voglio che le persone lo capiscano. Basta con questo stereotipo dell'hacker drogato, depresso e dissociato, che penetra sistemi informatici e spia profili facebook, cagatoci in testa dal Mainstrem con i vari Mr.Robot (per i rintronati che continuano ad associarmi a Mr.Robot); l'hacker è una persona lucida, curiosa, giocosa, creativa e virtuosa;
Gli hacker fanno quello che fanno perché lo amano. Non lo fanno per soldi, ci sono davvero dentro. Qualunque sia la loro passione, programmazione, poesia, arte, composizione videomusicale, elettronica, live coding, musica, imparano il più possibile, creano, rielaborano, migliorano, e poi condividono con il mondo.
"L'hacker è una persona che trae piacere dalla sfida intellettuale di scavalcare o aggirare creativamente dei limiti;"
"gli hacker credono che gli insegnamenti fondamentali sui sistemi – e sul mondo – possano essere appresi smontando le cose, analizzandone il funzionamento e utilizzando la conoscenza per creare cose nuove e più interessanti; sono artisti, scienziati matti in continua esplorazione, pronti a mettere in discussione qualsiasi cosa, senza paura;"
What are hackers from bz akira santjago on Vimeo.