RSS

Un Update per le Scene di Dialogo

12 Nov

Come anticipato, è stato pubblicato un nuovo blogpost per parlare delle rinnovate scene di intermezzo, ora più curate e ricche di dettagli. Trovate di seguito la traduzione integrale dell’articolo e i due brevi video di esempio… dunque buona lettura, e buona visione!

Salve, il mio nome è Chuck Jackman. Dirigo il motion capture e le animazioni delle conversazioni nelle scene di intermezzo in Guild Wars 2, e sono qui per aggiornarvi su quello che stiamo facendo in questo campo. Che cos’è esattamente una scena di dialogo? Mi fa piacere che lo abbiate chiesto. Se avete giocato la Demo di GW2 avrete visto delle brevi scene di intermezzo in cui sono mostrati dei dialoghi tra il vostro personaggio e alcuni NPC. Queste sono le scene di dialogo.

Finora ciò che avete visto era solo una versione temporanea dei dialoghi. Questo perché, qui ad ArenaNet, ci affidiamo ad un processo iterativo di sviluppo, che ci permette di aggiungere contenuti a vari livelli di completamento. Ciò ci consente di vedere come vanno le cose e quindi eventualmente fare modifiche o rifiniture man mano che andiamo avanti. Abbiamo sfruttato questo approccio anche con le scene di dialogo, così che i nostri scrittori e designer potessero farsi un’idea della bontà della storia e delle vicende mentre noi lavoravamo sulla resa visiva delle scene stesse. Questo ci ha permesso anche di rifinire meglio i nostri strumenti e i processi di sviluppo.

Quando abbiamo avviato la produzione di GW2, sapevamo di voler ottenere molto di più di quello che avevamo realizzato con le scene di intermezzo dell’originale GW. E’ stato deciso quasi subito che avremmo avuto tre tipi di scene nel gioco. Il primo tipo erano le “Scene Integrali”, per le parti della storia ricche di azione, distruzioni di Ascalon, e attacchi dei draghi. Queste sarebbero state gestite da Cameo, il tool di animazione sviluppato dal nostro talentuoso team, di cui avete già potuto verificare le potenzialità con i vari trailer che vi abbiamo mostrato. Questi si basano su uno sposalizio tra animazione 2D e 3D.

Poi avevamo il secondo tipo. Questi dovevano rappresentare i momenti cruciali della storia personale del vostro avatar, con tutti i suoi sviluppi e colpi di scena. Questi non sono pre-renderizzati e si sviluppano quando la storia richiede qualcosa di più della semplice azione di gioco per proseguire. Si tratta delle vere e proprie scene di dialogo.

Infine ci sono le scene di gioco in cui compaiono le finestre di dialogo dei personaggi NPC, generalmente utili per fornire indicazioni o informazioni al giocatore. Ci riferiamo a questo terzo tipo parlando semplicemente di “scene”.

Sapevamo di avere più vitalità nelle scene di dialogo di GW2 di quanta ne avessimo nell’originale GW, ma volevamo avere ancora più vitalità di quella che c’era nella nostra versione temporanea. Queste versioni provvisorie mostravano semplicemente due individui quasi immobili, caratterizzati da animazioni semplici e apparentemente casuali. Avevamo aggiunto una sincronizzazione labiale basilare, che dava più l’idea di un becco d’anatra che di una bocca umana. Ciò era dovuto al fatto che queste impostazioni temporanee consistevano semplicemente in un movimento labiale automatizzato e un pool basilare di gesti e animazioni. Di conseguenza, i personaggi non riuscivano a trasmettere le emozioni in maniera credibile e realistica, come invece volevamo. Era anche impossibile avere i gesti desiderati da parte del personaggio nei momenti giusti del dialogo in quanto le animazioni erano completamente preimpostate e limitate.

Ci serviva una soluzione versatile che ci permettesse di riutilizzare e riciclare le animazioni prendendole da un pool controllato di contenuti distribuiti su tutta la storia personale, senza che le cose apparissero insipide. Perciò abbiamo messo assieme alcuni technical artists, programmatori, designer e scrittori, e abbiamo definito ciò che volevamo ottenere e come potevamo riuscirci. Dopo aver prodotto alcuni prototipi e aver tentanto varie sperimentazioni, abbiamo deciso di utilizzare un approccio stratificato al sistema delle scene di dialogo, utilizzando motion capture, animazioni realizzate a mano, animazioni additive e un robustissimo software di sincronizzazione labiale.

Una volta che questo piano è stato definito, abbiamo dunque oscurato il sole le stelle, evocato la nebbia, tuoni e fulmini, acceso candele rituali e inviato la nostra richiesta finale per un nuovo tool al team di programmazione. Questi, dunque, hanno fatto ricorso alla più sinistra magia nera e hanno veicolato il codice necessario direttamente dalla mente di antichi dei per intrappolarlo in un fantastico tool set, permettendoci di soddisfare le nostre necessità peccaminose – ehm, per le scene di dialogo.

Questo nuovo tool set ci ha consentito di avere animazioni di base che rimanessero costanti, in funzione dello stato emotivo del personaggio, dandoci comunque la possibilità di andare a modificare i gesti e le espressioni facciali. La flessibilità delle animazioni additive ci ha fornito l’opportunità di creare brevi e rapide animazioni per i gesti, che potessero poi essere tolte o aggiunge da ciascuna animazione di base. Per esempio, possiamo animare un’alzata di spalle, applicarla ad una animazione di base di un personaggio fiducioso, e tutto funzionerà correttamente. Potremmo anche applicare la stessa alzata di spalle ad un personaggio arrabbiato, e il tutto potrà sembrare comunque naturale.

Abbiamo usato un simile approccio stratificato ed additivo anche per i volti. Questo ci ha permesso di animare volti di base in funzione dell’umore o dello stato emotivo, e poi applicare animazioni di sincronizzazione labiale. Possiamo anche aggiungere movimenti facciali additivi nei momenti giusti del dialogo. Per esempio, possiamo avere un personaggio che appare timido o impaurito mentre parla. A un certo punto potrebbe accadere qualcosa in grado di spaventarlo, e potremmo quindi facilmente aggiungere un’animazione che mostri il personaggio ritirarsi impaurito, a livello del volto, del corpo o anche su queste due parti in maniera indipendente, nel momento desiderato, così che il personaggio possa sembrare effettivamente reagire a ciò che è accaduto.

Dunque, questo è un riassunto di come abbiamo realizzato e messo assieme le scene di dialogo: dopo che il lavoro di doppiaggio è stato completato, e il team audio ha terminato di eseguire i suoi rituali voodoo, riesamino la scena diverse volte per determinare lo stato emotivo dei personaggi ed individuare punti in cui aggiungere particolari animazioni per accentuare diversi aspetti del dialogo. Quindi, prendo i miei appunti e vado nella nostra stanza dedicata al motion-capture, con il nostro animation lead Heron Prior e il nostro ragazzo del motion capture, Igor – ops, volevo dire Andrew. Mettiamo la nostra vittima prescelta nell’attrezzatura da motion capture e la facciamo piegare e contorcere secondo i nostri capricci, finché non otteniamo la performance che volevamo o la vittima crolla tra lacrime di disperazione.

Realizziamo il nostro motion capture direttamente sul posto, usando metodi leggermente diversi da quelli conosciuti dalla maggior parte delle persone. Impieghiamo infatti un sistema di motion capture senza video camere chiamato Xsens MVN system, che consiste in una tuta dotata di diversi sensori di movimento che inviano i loro segnali direttamente ad un computer. Questo sistema ci garantisce notevole flessibilità, in quando possiamo utilizzarlo anche fuori, all’esterno, e non solo all’interno dello studio.

Una volta che tutto è stato registrato, mettiamo i dati ottenuti nel nostro Motion Builder. A questo punto ripuliamo e riposizioniamo il tutto, e quindi lo inviamo a Maya per ricevere ulteriore amore e ripuliture. Quello che esce da questo processo diventerà l’animazione di base per uno stato emotivo specifico. Pensatelo come ad un linguaggio del corpo, o come ad un atteggiamento globale della posa e dei movimenti del corpo. Una volta che abbiamo l’animazione base, andiamo ad aggiungere i gesti – ottenuti sia con motion capture sia realizzati a mano. Infine, io ed Heron guardiamo nuovamente il tutto e determiniamo se sia il caso di aggiungere ancora qualcosa con animazioni additive. In genere queste vengono realizzate da animazioni prodotte a mano.

Vediamo un esempio di scena di dialogo in GW2:

Guardando questo video che mostra il dialogo tra il giocatore e la Sacerdotessa di Dwayna potrete avere un esempio di ciò che vi dicevo. Il giocare si gratta la testa e presenta gesti che indicano confusione: questi sono elementi che sono stati aggiunti su un corpo che di per sé aveva una animazione di base neutrale. I movimenti della mano che la Sacerdotessa di Dwayna esegue mentre parla sono minimi gesti che sono stati aggiunti sull’animazine di base.

Mentre il team di animazione è occupato a lavorare sulle espressioni e i movimenti del volto, la sincronizzazione labiale viene generata a partire dalla versione finale del file audio e dai file di testo realizzati dagli scrittori, grazie ad un programma chiamato FaceFX. Questo unisce la fonetica dei suoni del dialogo ai movimenti creati dal nostro team di animazione. Man mano che i vari elementi diventano disponibili, vengono quindi aggiunti nelle scene di dialogo e poi, ripuliti, rifiniti, o adattati finché non possiamo ritenerci soddisfatti.

La sincronizzazione labiale non è l’unica cosa che facciamo con i volti, comunque; realizziamo anche dei cicli di espressioni e i movimenti del volto. Queste cose funzionano in maniera analoga alle animazioni di base e ai gesti del corpo, ma una differenza importante è che le espressioni di base possono essere applicate su un’ampia gamma di animazioni corporee, dandoci la possibilità di tentare sottigliezze o scelte estreme.

Per esempio, in una scena con un personaggio infuriato è possibile mettere animazioni coporee che indicano la rabbia e espressioni del volto concordanti. Se la scena riguarda un personaggio severo, noi non abbiamo in verità animazioni di base per la severità, ma possiamo associare le animazioni di base di un personaggio sicuro di sé con sopracciglia aggrottate, e un volto teso su una animazione di base di arrabbiatura, così da caratterizzare lo stato emotivo desiderato.

Guardate per esempio quest’altra scena di dialogo per capire meglio quello di cui vi ho parlato:

Beh, siamo alla fine. A ben vedere il mio “breve” riassunto non è stato poi molto breve, ma spero che vi abbia fatto piacere leggere questa descrizione del nostro sistema per le scene di dialogo quando a me piace realizzarle.

 
2 commenti

Pubblicato da su 12 novembre 2011 in Blog Ufficiale, Video

 

Tag: , , , ,

2 risposte a “Un Update per le Scene di Dialogo

  1. giorgio

    3 dicembre 2011 at 16:19

    OH ma che fine avete fatto mettete qualche video… cioè che palle!!!! sto impazzendo! provo una miriade di emozioni!! sono arrabbiato e felice! uffaaaaa ma quando esce??? mettete qualcosa da leggereeeeee qualche raccolta di video bomba! che nervoso!!!

     
  2. Massimo Nastasi

    16 novembre 2011 at 14:08

    Grazie per aver tradotto l’articolo. Molto interessante.

     

Lascia un commento

Inserisci i tuoi dati qui sotto o clicca su un'icona per effettuare l'accesso:

Logo WordPress.com

Stai commentando usando il tuo account WordPress.com. Chiudi sessione / Modifica )

Foto Twitter

Stai commentando usando il tuo account Twitter. Chiudi sessione / Modifica )

Foto di Facebook

Stai commentando usando il tuo account Facebook. Chiudi sessione / Modifica )

Google+ photo

Stai commentando usando il tuo account Google+. Chiudi sessione / Modifica )

Connessione a %s...

 
%d blogger cliccano Mi Piace per questo: