All U need is… motion: beni culturali e spettacolo. Ma solo Tre(n)D!

Incontro con Andrea Brogi X-Lab

Pubblicato il 15/02/2005 / di / ateatro n. 081

Andrea Brogi, architetto, interactive environments designer, fondatore di X-lab e attualmente docente al Politecnico di Milano, è un esperto di computer graphics, di computer animation, di realtà virtuale e di sistemi di Motion Capture applicati anche all’arte performativa; negli anni Novanta in epoca di VRLM ha applicato questi strumenti al campo dell’architettura e dei Beni Culturali.

“Ho sempre lavorato su PC, per cui la mia sperimentazione è andata avanti di pari passo con l’evoluzione dei software disponibili per questa piattaforma; arrivare a lavorare sull’animazione di personaggi digitali è stato un passaggio naturale”.

Nel 1999 ha vinto insieme a Fabrizio Bondi il 1° International Championship of 3D Animation creando una animazione di 30″ che aveva come protagonista il “Dancing Baby” in una gara 24 ore non stop fra dieci gruppi selezionati in tutto il mondo che si è svolta a Montecarlo durante il festival di Imagina.

“Oggi mi occupo di animazione di personaggi digitali con sistemi di motion capture ed in particolare sto sperimentando il loro utilizzo in real-time per performance interattive. Per la realtà virtuale attualmente però, il campo applicativo maggiormente aperto alla sperimentazione è quello dei beni culturali”.

Brogi ha lavorato al progetto di ricostruzione virtuale con modello 3D del Camposanto monumentale da lui ideato e realizzato insieme alla scuola Sant’Anna di Pisa – che ha anche scritto il software per la grafica 3D – in collaborazione con l’Opera del Duomo e la Soprintendenza. Un progetto di ricostruzione dell’edificio e di riposizionamento degli affreschi staccati in epoca di guerra, nato nel 1996 come strumento di supporto per il lavoro di restauro

“Si tratta di un progetto ad uso dei restauratori specificamente studiato per loro. Il sistema è di fatto un data base dove ci sono più di un migliaio di schede che riguardano le informazioni di ogni singolo oggetto, un data base delle opere che hanno trovato posto all’interno del Camposanto capace di gestire la rappresentazione tridimensionale di tutti gli oggetti in esso contenuti. Il modello 3D funziona come interfaccia per entrare all’interno del data base e navigare in tempo reale e trovare i materiali oppure puoi fare il contrario, cercare un oggetto e il sistema lo localizza spazialmente”.

E’ inoltre on line il sito con la possibilità di una visita virtuale 3D alla Piazza dei Miracoli (realizzato con Percro e Cribecu della Normale Superiore diretto da Massimo Bergamasco, che hanno anche dato vita anche al Museo Virtuale delle Pure Forme), con particolari sull’evoluzione della Piazza dalle origini a oggi e con una possibilità di visione da svariati punti di vista. Si possono visitare le trasformazioni temporali, le risistemazioni della Piazza in epoca ottocentesca e contestualizzare il luogo sulla planimetria di Pisa

“E’ un viaggio nel tempo: si sceglie il periodo storico e il sistema in automatico ti fa vedere la collocazione delle architetture e sculture. La navigazione porta attraverso i link al sito 2d con varie informazioni a livelli differenziati, per il turista, lo studioso e lo storico. Il modello 3 D è l’interfaccia per il data base 2D. La navigazione sembra condurci dentro un video vettoriale: ho infatti impostato il movimento di macchina da presa, sincronizzato il suono e la voce ma non è affatto un video fatto di singoli fotogrammi. E’ una navigazione guidata all’interno del modello con parti che si evidenziano man mano che si evincono dalla voce. E’ un enorme data-base, ma è stato studiato per essere intuitivo, cercando di dare le chiavi di lettura anche per persone meno abili. Il vantaggio tecnologico è che tutto questo sta dentro 8 Megabyte: hai quindi tutto questo in uno spazio ridotto e una navigazione veloce”.

Un nuovo progetto con finanziamenti europei realizzato con il Cnr con il gruppo di Roberto Scopigno ha previsto la sperimentazione sull’uso dello scanner 3D per i Beni culturali.

“Il progetto di scannerizzazione di statue legate all’Opera del Duomo era diretto dalla dottoressa Baracchini, che ha scelto le statue del sepolcro di Arrigo VII a cui fu fatto un mausoleo nel Duomo di Pisa all’interno dell’abside e nel tempo molti storici avevano fatto ipotesi sulla sistemazione originaria. La Soprintendenza ha scelto questo case-study. La tecnologia usata è proprietaria e sviluppata durante un progetto europeo denominato Vihap 3D. Uno scanner 3D è un raggio laser che viene ripreso da una telecamera. Si tratta di avere una mappatura della superficie dell’oggetto ottenuta dalle varie scansioni realizzate da differenti punti di vista (range maps) e poi montare le range map tutte insieme. Il Cnr ha sviluppato un programma per automatizzare questo procedimento”.

Andrea Brogi collabora inoltre a numerose produzioni per la televisione come animatore di personaggi virtuali usando tecniche miste di Motion Capture-Keyframe, con uno stile personale per le animazioni stile cartoon; tra i personaggi animati, il signor Bonaventura, cofinanziato con un progetto di avviamento RAI, Rolando Peperony, premiato a Castelli Animati come miglior produzione italiana del 2003 e i due personaggi dei cartelli stradali del video dei Tiromancino Per me è importante.
Attualmente Andrea Brogi sperimenta sistemi di Motion Capture (MoCa) per ambiti teatrali e performativi in collaborazione con l’Accademia di Arte drammatica di Roma. Ma quando è nata la MoCa?

“La Vicon, società che costruisce e distribuisce uno dei più usati sistemi di MoCap ottico, è stata fondata nella metà degli anni Ottanta e solo oggi è in grado di fornire sistemi real-time. Fino a ora le macchine non erano abbastanza potenti e quindi dopo aver effettuato delle riprese di MoCap ci volevano diverse ore, se non giorni, per analizzare i filmati, estrarre la posizione dei marker e riportare il movimento su di un personaggio digitale”.

Brogi è tra gli artefici di Mutatas Dicere Formas, spettacolo con uso di tecnologia interattiva realizzato con l’Accademia di Arte Drammatica di Roma e con la partecipazione di Simona Generali, Pierpaolo Magnani che è stato allestito a Roma al Museo Zoologico l’11 febbraio.

“L’idea nasce all’interno dell’Accademia d’Arte Drammatica, da Gabriele Ciaccia del Teatro dei Colori, con cui avevamo già lavorato, dagli allievi, ed è stato possibile grazie al coinvolgimento entusiastico del direttore dell’Accademia, Luigi Maria Musati. Lo spettacolo cerca di sperimentare le possibilità espressive di interazione fra l’attore e la sua immagine elettronica, animata dall’attore stesso con sistemi di MoCa direttamente in scena. Abbiamo presentato a Polverigi, al Festival Internazionale Inteatro, una prima performance di circa 20 minuti mettendo in scena un frammento tratto dalle Metamorfosi di Ovidio. L’anno dopo abbiamo fatto un laboratorio estivo all’interno dei Seminari Internazionali sull’Attore a San Minato lavorando su un testo di T. Eliot. Lo scorso anno l’Atam (il circuito del teatro dell’Abruzzo) che programma spettacoli nei siti archeologici ci ha contattato e Gabriele Ciaccia ha così pensato a un testo classico, a un autore come Ovidio; insieme con Musati aveva fatto una rielaborazione delle Metamorfosi con un’idea di realizzare alcuni frammenti con le nostre tecnologie. Poi l’unico progetto sono diventati due e con Gabriele abbiamo fatto un nuovo spettacolo indipendente prodotto dall’Accademia in tour in Abruzzo con dieci date. Su quest’idea dei siti archeologici abbiamo preso il testo. In scena tre attori, Simona Generali e due ragazzi appena usciti dall’Accademia, Alessio De Caprio e Edmarzia De Andrade. Simona ormai esperta, indossava la tuta (esoscheletro) e i due giovani attori i guanti a fibra ottica. Abbiamo creato cinque frammenti: La Cosmogonia; il Diluvio; La nascita della nuova Umanità; Dafne; Fetonte. Gli attori hanno lavorato sul testo, e sulle posizioni con Gabriele Ciaccia. L’idea era di realizzare una scenografia digitale animata dal movimento. Uno schermo a forma di elissi di 4 metri per 3 veniva usato per proiettare le immagini in questi siti archeologici, ma era nostra intenzione di usare anche una proiezione dall’alto verso terra per dare agli attori una maggior consapevolezza del risultato dei loro movimenti. Dovrebbero infatti avere una vista “periferica” per controllare i movimenti, le posizioni, la loro trasformazione in immagine e comunque la scena nel suo complesso. Durante le prove vedevano tutto grazie a un monitor, ma in scena con le luci e le immagini non c’era per loro questa possibilità di feedback. Per loro vedere successivamente il video di documentazione era strano, in sostanza vedevano per la prima volta la scena.”

Vi siete imposti una regola nella creazione delle immagini?

In generale abbiamo cercato il più possibile di non essere didascalici, di lavorare su un senso non letterale ma più astratto. Con i gesti e con le immagini. In alcuni momenti questa letteralità però esce.

 

La scenografia è solo live?

C’è anche un serie di video registrato di Pierpaolo Magnani. E vari materiali realizzati in Computer grafica.

Come avete studiato lo spazio in base al rapporto con lo spettatore?

Inizialmente si pensava di collocare il palco per terra e si cercava un legame diretto, una vicinanza tra spettatore, spettacolo e immagine catturata; cercavamo di collegarci alla visione dello spettatore, ma una volta arrivati sui siti abbiamo trovato dei palchi e questo ci ha complicato un po’ le cose! Nel teatro romano di Sepino e a Sulmona invece abbiamo montato per terra. Dipendeva dalle situazioni

Quando sono state create le immagini?

Le immagini sono arrivate dopo che gli attori hanno lavorato sul testo. Loro hanno fatto un lavoro di memoria, un lavoro sulla voce; sono venuti a Cascina a fare delle prove, poi lo spettacolo vero e proprio l’abbiamo fatto ad Avezzano; siamo stati al Teatro dei colori e con la scenografia montata e con le attrezzature abbiamo fatto le prove di animazione delle scenografie.

Quale episodio-mito preferisci o reputi che sia stato tecnicamente realizzato meglio?

La scena di Dafne, che in apparenza è la più semplice. Inizialmente quando Simona racconta di Dafne ci sono suoni e poi dei video con le immagini della foresta che si muove alle sue spalle. L’inseguimento di Giove a Dafne è stato realizzato con una telecamera a infrarossi che Dafne-Simona ha in mano e cerca di inquadrare qualcosa. In questo episodio ci sono scene in bianco e nero e varie fonti di immagini: abbiamo un mixer video con 4 entrate che gestiamo in diretta: telecamere a infrarossi, una microcamera, video preregistrati e video 3 D. Lei ha la telecamera e tu vedi solo quello che vede la telecamera che essendo all’infrarossi riprende al buio. E’ una scena che ricorda The Blair Witch Project. La telecamera le scansiona il viso e sopra di lei sullo schermo compaiono le sue trasformazioni in pianta. Abbiamo combinato insieme grafica 3 D con sfondi di quadri astratti, Kandinsky o Pollock e insieme diventavano sagome bidimensionali. I movimenti della mano di lei diventano pian piano rami.

Come pensate di proseguire il progetto?

Stiamo già implementando nella storia la possibilità di creare dei suoni direttamente con il movimento del corpo, così come cerchiamo di installare una minicamera sull’attore per creare visuali inedite in soggettiva ancora una volta comandate dall’attore stesso che allo stesso tempo però anima anche la grafica 3D computerizzata, una sincronia dello spazio reale e virtuale generata dal punto di vista dell’attore.

Anna_Maria_Monteverdi

2005-02-15T00:00:00




Tag: digitale (94), newmedia (3)


Scrivi un commento