Dal video mapping alla performance (e ritorno)

Il Kernel Festival a Desio (con interviste a Andrea Carpentieri e Marco Donnarumma)

Pubblicato il 08/06/2011 / di / ateatro n. 135 / 0 commenti /
Share

Prima edizione del Kernel Festival a Desio (Mb), dove l’’arte digitale dialoga con natura e architettura e dove l’intrattenimento si unisce alla computer art più evoluta. Grandi numeri di presenza (soprattutto in serale) per una kermesse che in questa prima timida edizione di inizio luglio ha mostrato tutte e sue potenzialità – e forse qualche pecca nella smania di eccedere nelle proposte. Ma in sostanza, tre giorni ricchi di iniziative con workshop, incontri, installazioni, audiovisual live, con la presenza come special guest, della regina incontrastata delle tendenze tecnoartistiche attuali: il digital mapping, ovvero la proiezione architetturale 2D e 3D.

Si tratta della versione up-to-date degli spettacoli di sons et lumiéres: per l’occasione Villa Tittoni Traversi di Desio è diventata un fondale straordinario per i colorati voli tecnopindarici degli artisti internazionali invitati. Alcuni di loro sono stati selezionati a “chiamata” sulla base di pochi minuti di concept inviati alla commissione e tra questi c’è il collettivo italiano Insynchlab formato da giovani ex allievi della Scuola di Nuove tecnologie dell’Accademia di Brera, che con la loro proposta di videomapping non hanno certo sfigurato di fronte ai giganti francesi e spagnoli Paradigme e Telenoika.

Insynchlab sono Andrea Carpentieri, Marco Pucci, Matteo Inchingolo, Lorenzo Piovella, Matteo Gatti, Alex Cayuela e si sono specializzati in fotografia, animazione, interattività, video. Alcuni continuano la loro esperienza a Brera come tutor favorendo una dimensione di “lab” per gli iscritti al triennio e al biennio della Scuola di Tecnologie diretta da Ezio Cuoghi e che ha come docenti nomi prestigiosi come Paolo Rosa, Antonio Caronia, Giuseppe Baresi, Franco “Bifo” Berardi; altri hanno vinto prestigiosi concorsi artistici nazionali come Marco Pucci con Milano in digitale (il suo albero digitale dalla crescita virtuale era davvero strepitoso). Una bella sorpresa, insomma, quella di Insynchlab che ha incantato la numerosa folla rimasta fino alle 5 del mattino a godersi la nottata di video e musica, e che vale la pena di conoscere più fondo (vedi intervista), per capire come si passa dalla formazione (e autoformazione) al professionismo vero e proprio.
Dunque è stato proprio lo storico Palazzo ottocentesco di Villa Tittoni (peraltro sede di un Museo e di una Biblioteca) con tanto di timpano, colonne, sculture addossate, e scarsamente conosciuto anche da quelli che provengono dalla vicina Milano, a essere assunto come simbolo del Kernel Festival, un festival di eventi e di architetture liquide ed effimere che ha intrecciato vari media partner (tra cui il portale e webmag Digicult di Marco Mancuso, sempre attivo per manifestazioni legate al live media) e ha unito le forze con altre manifestazioni più consolidate (Live Performance Meeting a Roma di Giuseppe Del Gobbo). Un po’ deludente la parte delle installazioni digitali e interattive, alcune francamente incomprensibili sia nel funzionamento sia nel concept, altre elementari o già viste o semplicemente non funzionanti. Straordinaria però, la macchina roteante o scultura cinetica con luci a led rgb dello spagnolo Alex Posada dal titolo The Particle.

Quest’opera intrinsecamente performante, apre a considerazioni che riguardano il livello di teatralità delle macchine: come per Heiner Goebbels, il protagonista è il congegno macchinico di luce e suono, che con il suo movimento nello spazio, crea effetti cromatici e persistenza retinica, dando vita a una suggestiva narrazione cosmologica.
Nel parco della Villa erano stati montati due palchi per i live e per la gestione dell’audiovisual mapping con i mastodontici videoproiettori dalla potenza di lumen con molti zeri: ogni gruppo intervenuto aveva ovviamente, un proprio marchio estetico e questo vale anche per il videomapping: e così i mostri transformer, le televisioni, gli svolazzamenti di bandiere virtuali e grande dispendio di un’effettistica strepitosa, hanno felicemente occupato la sezione di Roberto Fazio, Luca Agnani, Paradigme, Telenoika.
La sezione live media (Vj mapping, audiovisual mapping) che è andata avanti a notte tarda, a parte alcuni casi, lasciava forse un po’ a desiderare sulla parte visuale, piuttosto monotona e commerciale; un’atmosfera più da club che non da ricercato festival, che però la folla di ragazzi accorsa soprattutto dalle 23 in poi, ha apprezzato comunque, considerato il livello dei Vj intervenuti (da Tonylight degli Otolab a Dj Spooky…).

Insinchlab: da Brera a Desio. Intervista al gruppo
Insynchlab per EVE ha lavorato sul racconto del palazzo nel tempo, passato attraverso vicende atmosferiche e storiche (con atmosfere tipo Via col vento…) guerre comprese, mentre i segni del tempo erano sottolineati anche dalle germinazioni rampicanti che lo avvinghiavano. Una costruzione drammaturgica coerente anche nella musica. Un ottimo lavoro che colloca il giovane gruppo tra i pochissimi collettivi italiani da annoverare tra i realizzatori di un vero videomapping creativo, quello che sfrutta le potenzialità di ogni singolo oggetto architettonico della struttura e gioca sulla costruzione di un breve racconto che sorprende visivamente.

Chiediamo ad Andrea Carpentieri il portavoce del gruppo che oggi ha un contratto come tutor alla Scuola di Nuove Tecnologie dell’Accademia di Brera, qualche parola sull’esperienza di Kernel e sulle fasi di preparazione del lavoro:
“L’intervento inziale è stato di gioco, ludico insomma. Poi abbiamo voluto raccontare in un mapping di dieci minuti, la storia del palazzo: la drammaturgia non è altro che il tempo, la pietra attaccata dal tempo e dagli agenti atmosferici, e poi l’edera rampicante animata, implacabile nella sua crescita verso l’alto che è l’intrusione della natura nell’architettura. Abbiamo cercato di far capire il senso del passaggio del tempo riprendendo la luce solare, seguendone il movimento in un time lapse.
Quindi c’è tutto l’armamentario narrativo costituito da crepe del palazzo, deperimento strutturale, guerra, con esplosioni annesse, finestre spaccate uccisioni e defenestramenti. Il gruppo Insynchlab preesisteva già dall’inizio dell’anno: nel laboratorio di Brera 2 in Viale Marche (stanza 110) facciamo un po’ di sperimentazioni e il primo nostro lavoro di mapping, molto semplice con dei cubi e una porta virtuale realizzata proprio alla Scuola di Brera è stato molto visitato in rete; ovviamente per Kernel abbiamo creato un mapping fatto apposta, abbiamo sviluppato animazioni, video, suoni, aperture, puzzle di immagini, composizioni”.

Come avete operato sul modello digitale?

L’organizzazione ha messo a disposizione una mappa della facciata che abbiamo sviluppato autonomamente e creativamente; abbiamo seguito una camera preimpostata data dall’organizzazione del Festival, c’era un tecnico che ha disposto i potenti proiettori e abbiamo potuto fare dei test di prova. Esiste un software del videoproiettore stesso che mediante una griglia, assesta tutto quanto coerentemente. L’obiettivo era creare una sorta di short film chiuso; quindi per far capire il senso, c’era bisogno di un minimo di drammaturgia. Abbiamo trovato un filone iniziale che poteva funzionare per cercare di stupire il pubblico, essere in linea con le aspettative delle persone del Festival e poi abbiamo steso una piccola drammaturgia. Il titolo è Evo, è un’evoluzione del palazzo nel tempo e attraverso una serie di azioni compiute da agenti estranei alla struttura architettonica. Abbiamo usato Cinema 4D; per il montaggio sono serviti quattro giorni e altri due per registrare.

Vi siete confrontati con artisti come Area Odeon Telenoika Paradigma

Abbiamo seguito alcuni workshop con gli artisti invitati al Festival, per esempio con i Telenoika che sono vicini anche alla nostra estetica; Luca Agnani girava già con le sue produzioni e lo conoscevamo. Il Festival ci ha portato un sacco di contatti, tra questi anche il Live Performance Media. I francesi Paradigme hanno apprezzato il nostro lavoro e ci hanno invitato al loro Festival CONTACT. Certamente la contaminazione con il fenomeno Vjing in queste kermesse è forte, si tratta in sostanza, di un artista audio che viene accompagnato dal video, e il mapping non è la priorità.

Siete cresciuti a Brera: cosa vi ha dato quest’esperienza formativa?

Il collettivo artistico si è assemblato naturalmente per competenze e abilità tecniche di vario genere e che si può posizionare su varie altre cose, produrre video, interazioni, animazioni, mapping. A Brera possiamo fare ricerca…per esempio stiamo sviluppando progetti interattivi con Kinect, lavoriamo con Arduino, vogliamo unire l’aspetto teorico alla ricerca vera e propria.

Una performance di bio feedback: intervista a Marco Donnarumma
Nel pomeriggio del sabato sul palco del giardino della Villa si sono alternati alcuni concerti di musica elettronica e una performance interattiva sonora particolarmente originale: è Marco Donnarumma a catalizzare l’attenzione del pubblico di questo assolato sabato. Collocato in un contesto forse non adeguato alla tipologia di performance che proponeva, Marco Donnarumma, giovanissimo ricercatore legato allo studio di interattività e suono, attualmente di stanza all’Università di Edinburgo, sviluppatore del programma libero Pure Data, ha dato vita a una breve ma molto significativa dimostrazione artistica del suo studio sulle tecnologie che amplificano sulla scena, il corpo umano. La sua performance si intitola infatti Music for Flesh. Interactive music for enhanced body (Xth Sense Biosensing Wearable Technology).
Con due biosensori collocati sull’avanbraccio collegati a un computer centrale, Donnarumma amplifica e gestisce interattivamente i suoni provenienti dall’interno del suo corpo: il suono prodotto dai muscoli quando le braccia sono contratte e poi rilasciate. Un concerto per muscoli e sensori in cui l’uomo dirige abilmente se stesso, suonando il proprio corpo senza altra intermediazione/interfaccia. I gesti delle dita, la contrazione delle braccia modulavano accordi e suoni di sintesi rilasciando al pubblico un’emozione infinita. Il gesto espressivo “parlava”, emetteva suoni e raccontava stati d’animo immediatamente percepibili perché provenienti da un organismo vivente e subito amplificati: ecco la “biomusic” a cui lui si riferisce come pratica e filosofia artistica; l’applicazione al teatro di questo sistema, con una gestione arricchita di multimedia, potrebbe davvero creare un valore aggiunto e di questo Marco Donnarumma è assolutamente consapevole, avendo provato a usarlo anche in ambiti legati per ora, alla danza.
Nessun datasuite, nessuna accensione on/off, solo un puro segno nello spazio vuoto che apre a mondi concretamente visibili e tangibili nel loro suono quadrifonico. Originali anche i titoli delle performance di Donnarumma: Audiovisual concert for augmented electric bass guitar, self-designed software and butterfly; Multi-channel generative sound installation for censored Internet Protocol (IP) addresses; Autonomous system for permanent, real time, cinematic representation of worldwide stock prices.

Chiediamo a Marco Donnarumma di raccontarci qualcosa della sua ricerca e di come sia approdato a questa insolita forma di spettacolo.

Porto avanti una ricerca artistica da diversi anni focalizzata sull’interazione fra uomo e macchina, nasco come musicista nel 2000 e lavoro con il live video dal 2004; il progetto che fino ad ora ha avuto più riscontri positivi è I C::ntr::l Nature (2009), un concerto audiovisuale interattivo basato su un software che ho sviluppato in Pure Data: un sistema di pitch tracking riconosce le note suonate da un basso elettrico e quindi permette di controllare effetti audio e video in tempo reale semplicemente suonando lo strumento musicale, senza bisogno di interagire fisicamente con un computer. E’ stata un’esplorazione durata tre anni. L’aspetto fondamentale di questa ricerca è sempre stato l’integrazione di sistemi interattivi che permettessero da una parte di sottolineare l’atto performativo durante un concerto e dall’altra di offrire al performer maggiore libertà di comunicazione espressiva. Nonostante questo, dopo tre anni di performance in Europa e in Sud America, mi sono reso conto che suonare uno strumento musicale classico, anche in modo non convenzionale, implica l’adottare delle posizioni, dei movimenti pre-definiti, che a volte può addirittura constringere l’aspetto performativo; quindi ho sentito il bisogno di un nuovo tipo di interazione creativa sul palco, e ho deciso di uscire da questo schema.
Nell’estate del 2010 ho cominciato a studiare pubblicazioni che mi offrissero spunti di riflessione, ho analizzato il lavoro di Michel Waisvisz, che è stato direttore artistico dello STEIM ad Amsterdam, una figura seminale nella scena musicale sperimentale; ho studiato soprattutto il suo progetto
The Hands, un originale strumento musicale per il controllo gesturale di suoni e musica basato su dei guanti dotati di diversi sensori che trasmettevano al computer informazioni dettagliate riguardo il suo comportamento fisico sul palco; nelle sue performance il computer era completamente assente, mentre il suo corpo, l’atto performativo riempiva in maniera inequivocabile lo stage. Io cercavo un approccio di questo tipo, delle modalità che mi permettessero di controllare e interagire con un computer in maniera fisica, naturale e istintiva, ma allo stesso tempo ero attratto dall’idea di poter comunicare ad un computer qualcosa di più intimo e più strettamente connesso alla specificità del mio corpo, che dei semplici movimenti nello spazio.
Così ho ricercato pubblicazioni su sistemi di biofeedback, una metodologia utilizzata nell’ambito medico per migliorare la coscienza di un individuo rispetto ad una malattia o una specifica condizione del suo corpo; diversi tipi di sensori vengono utilizzati per permettere al paziente stesso di monitorare la temperatura corporea, il ritmo del battito cardiaco o la resistenza elettrica prodotta a livello epidermico dalle contrazioni muscolari. Già nel 1965 il compositore Alvin Lucier aveva creato una performance
Music for solo performer utilizzando le onde alfa prodotte dal cervello in stato di meditazione. Da allora la ricerca artistica in questo campo si è sviluppata molto, soprattutto grazie al lavoro di ricercatori come Ben Knapp e il gruppo di ricerca del SARC di Belfast, Atau Tanaka e Eduardo Miranda. Grazie anche al loro lavoro ho trovato l’ispirazione per creare il mio sistema biofisico Xth Sense.

Ti sei dedicato a queste tecniche per motivi di ricerca universitaria e poi l’hai applicata alla performance o viceversa?

La ricerca è supportata dell’Università di Edimburgo, dove sperimento applicazioni biofisiche per il sound design di performance e sistemi interattivi, e ho sviluppato l’hardware grazie anche all’aiuto del Hacklab di Edimburgo, Andrea Donnarumma e Marianna Cozzolino.
Nonostante stia lavorando in un ambiente accademico, il progetto per me rappresenta una naturale evoluzione della ricerca personale che ho descritto prima. Inoltre, un aspetto fondamentale di questa investigazione, e della mia pratica artistica in generale, è l’utilizzo esclusivo di strumenti free e open source. Tutto il sistema è stato sviluppato su Linux, soprattutto in Pure Data. Anche il design del wearable biosensor è stato creato in maniera da poter essere costruito da chiunque, anche chi non ha esperienza in elettronica; il costo di produzione del sensore è di meno di 6 euro. Il framework e la sua documentazione verranno rilasciati l’anno prossimo con licenza free. Questo è molto importante perchè ad oggi l’Xth Sense è l’unico sistema per l’interazione biofisica fra uomo e macchina basato su tecnologie libere. Esistono altri progetti simili, ma sono diventati prodotti commerciali, abbastanza costosi e soprattutto “chiusi” (non modificabili). Per me rimane fondamentale e indispensabile produrre nuove tecnologie che siano re-distribuibili, gratuite e completamente modificabili, specialmente nell’ambito artistico.

Qual è la filosofia di fondo di questa ricerca?

Il mio approccio alla tecnologia è minimale; sul palco la tecnologia è assente: il computer è invisibile e indosso solo i sensori, che non sono altro che due braccialetti neri. Questo è un altro aspetto fondamentale dell’intero progetto: spesso, ciò che vedo intorno a me è un abuso della tecnologia; molte volte mi sembra che il risultato artistico di un lavoro non sia assolutamente bilanciato rispetto alla quantità e complessità delle tecnologie utilizzate. Si possono ottenere sistemi interattivi e performance altamente tecnologiche senza utilizzare tecnologie ermetiche e astruse. A me non mi interessa questo approccio, abusare della tecnologia è sottovalutare le qualità creative di ognuno; la creatività umana non deve essere dato in pasto alla tecnologia, ma questa deve essere un mezzo.

Su cosa si basa la tua performance Xth Sense?

Su un processo estremamente semplice, ma efficace: quando performo i miei muscoli producono delle micro-oscillazioni meccaniche che possono essere catturate con dei microfoni particolari. Queste vibrazioni non sono altro che suoni a bassa frequenza. I suoni vengono trasmessi in tempo reale ad un computer; la macchina sviluppa una comprensione del mio comportamento biofisico “ascoltando” i suoni dei miei muscoli. Poi estrae le caratteristiche più importanti della mia performance, come il ritmo, la forza che applico ai miei movimenti e i pattern di gesti e movimenti, quindi questi dati guidano degli algoritmi che modificano in tempo reale i suoni dei miei muscoli creando una composizione, una soundscape unica perchè prodotta dalle fibre dei miei muscoli in ogni istante della performance.
La parte più difficile non è stata l’implementazione tecnica, ma piuttosto lo studio di una strategia che permettesse al computer di CAPIRE cosa sto facendo, ascoltando la frizione dei miei muscoli delle diverse parti del mio corpo.
La cosa più interessante è la possibilità di definire un gesto espressivo non solo dal punto di vista visuale, ma anche da quello sonoro. Nello spazio vuoto del palcoscenico devi dare un significato quello che fai. Il sistema permette di costruire un vocabolario di gesti e movimenti che rimangono unici anche per quanto riguarda l’aspetto sonoro; infatti, con adeguato esercizio ho sviluppato una serie di gesti che producono un suono specifico; questi, composti secondo un’improvvisazione semi-strutturata, danno vita ad un ambiente sonoro particolarmente ricco e ad una performance unica anche dal punto di vista fisico.
Il mio intento è oltrepassare il concetto che vede il corpo umano come un’interfaccia che guida le operazioni di un computer; invece intendo definire un “enhanced body”, un corpo aumentato, che impiega delle caratteristiche intrinsiche e naturali per diventare un vero e proprio strumento musicale; qui la materia sonora viene creata grazie ad un processo meccanico, ed è inscindibile dal corpo che lo produce, esattamente come in uno strumento classico.

Dove possiamo trovare i risultati delle tue ricerche, oltre che sul palco?

Fino ad ora i risultati della mia ricerca sono stati pubblicati nei proceedings di 3 conferenze internazionali: la Linux Audio Conference, l’ICMC, International Computer Music Conference e la Pure Data Convention. Nella sezione Publications del mio portfolio on-line è possibile accedere a questa documentazione. Per del materiale più informale consiglio di visitare il mio blog, mentre un’intervista riguardo il progetto è stata pubblicata recentemente da Weave, un interaction design magazine; un’altra intervista sarà presto pubblicata in occasione di The Biological Canvas, una mostra on-line a cui partecipo insieme a Stelarc a altri artisti che utilizzano il corpo come mezzo artistico.

Anna_Maria_Monteverdi

2011-06-08T00:00:00

Share



Tag: videomapping (2)


Scrivi un commento