Le grandi produzioni cinematografiche stanno investendo molto per creare in 3D gli umani digitali, protagonisti sul set di produzioni sempre più virtuali. Succede quando è necessario sostituire interpreti deceduti o ringiovanire, piuttosto che invecchiare, quelli regolarmente attivi sul set, quando le possibilità del trucco tradizionale non consentono di raggiungere l’obiettivo prefissato. Gli attori virtuali diventano sempre più realistici nell’immagine e nel comportamento, riducendo progressivamente il gap che li separa da quelli reali. Quando saranno in grado di sostituirli del tutto? E soprattutto, sarà davvero necessario farlo?

TAKEAWAY

  • Attori virtuali e umani digitali. Le tecnologie 3D oggi consentono di gestire l’immagine dell’uomo per soddisfare moltissimi utilizzi. Il cinema ha fatto per molti versi da apripista agli umani digitali, per riportare in scena attori deceduti o per ringiovanire o invecchiare a piacimento star come Brad Pitt, Will Smith, Robert De Niro o Al Pacino.
  • Studi di effetti visivi come ILM, Weta Digital e Digital Domain hanno maturato una profonda esperienza nella ricerca e sviluppo degli umani digitali, sviluppando tecnologie proprietarie in grado di aumentare il realismo generale produzione dopo produzione.
  • La grande sfida nello sviluppo pare orientata nell’utilizzo complementare di più tecnologie 3D e AI, per creare umani realistici nell’aspetto, nei movimenti e dotati di interfacce conversazionali in grado di collocarli sullo stesso piano degli umani veri anche dal punto di vista relazionale.

Era il 30 novembre 2013, quando un terribile incidente stradale ha posto prematuramente fine alla vita di Paul Walker, nel bel mezzo delle riprese del settimo capitolo di Fast & Furious, la serie che ha reso l’attore californiano amatissimo in tutto il mondo, al punto che la notizia della sua scomparsa, avvenuta a soli 40 anni, ha profondamente commosso milioni di appassionati. In Fast & Furious, Walker, alias Brian O’Conner, era il volto buono, il compagno di mille avventure del passionale Dom Toretto, a sua volta interpretato da Vin Diesel, molto legato a Walker anche fuori dal set, al punto da prendere in custodia sua figlia Meadow, che all’epoca del fatale incidente aveva soltanto 14 anni.

Dopo lo smarrimento iniziale, in cui i produttori di Universal hanno valutato varie ipotesi, dalla cancellazione del film alla totale riscrittura della sceneggiatura inizialmente consegnata al regista James Wan, si è scelto di variare soltanto il finale, affidando a Weta Digital la creazione del “digital double” di Paul Walker, indispensabile per completare le shot che l’attore non è riuscito a girare prima della sua improvvisa dipartita.

Per creare il modello 3D da impiegare per le animazioni nelle varie scene, il VFX studio neozelandese ha utilizzato una pipeline piuttosto complessa, partendo da una reference del girato di Paul Walker per ricostruire il modello 3D integrale della testa e tutte le texture di base.

Data la notevole somiglianza, nel live action sono stati utilizzati i due fratelli di Paul Walker, Caleb e Cody, oltre all’attore professionista John Brotherton per le scene più complesse dal punto di vista della recitazione. Questo particolare ha consentito di circoscrivere il campo d’azione della post produzione alla regione facciale, dove è stata effettuata una sostituzione digitale sia in 3D che in 2,5D sulla ripresa dal vero.

Grazie alla computer grafica 3D è stato possibile concludere con successo una produzione che, anche grazie al trasporto emotivo causato dalla tragedia, soltanto sul grande schermo ha incassato oltre 1 miliardo e mezzo di dollari, diventando all’epoca il terzo maggior incasso di sempre, oltre che il più veloce in assoluto a raggiungere quota un miliardo al botteghino, impresa centrata in soli 19 giorni! (fonte Hollywood Reporter).

Il breakdown del digital double di Paul Walker in Fast & Furious 7. La scena finale, in cui Dom e Brian si separano prendendo vie differenti apre ad un flashback con i momenti più significativi interpretati da Paul Walker nella saga. Iconici e toccanti, quegli attimi sono sembrati eterni, emozionando nel profondo i fan più accaniti della serie, così come i semplici appassionati.

Rogue One: a Star Wars Story, gli attori virtuali rivivono in 3D nel prequel

Oltre ai nove episodi principali, sviluppati nell’arco di oltre 40 anni, la produzione recente di Star Wars ha esplorato altri aspetti della storia, anche per spiegare alcuni punti morti negli avvenimenti accaduti tra le varie trilogie.

È nata così Star Wars Anthology, una serie di spin off in cui figura Rogue One: A Star Wars Story, opera che diversi critici ritengono addirittura il miglior film successivo alla trilogia originale, in quanto è riuscito a rendere il fan service meno condizionante rispetto a quanto effettuato dalla maggioranza degli episodi principali.

La storia si colloca nel momento storico successivo alle guerre dei cloni ed immediatamente precedente alle vicende narrate in Star Wars: Una Nuova Speranza (episodio 4), segnando quindi il punto di passaggio tra la prima e la seconda trilogia. Nel film compaiono nuovamente personaggi come il comandante Moff Tarkin e la leggendaria principessa Leila che proprio in Episodio IV erano stati i protagonisti di una delle scene cruciali dell’intera saga, quando l’imperiale ordina la distruzione del pianeta Alderaan per mano della temibile Morte Nera, proprio davanti agli occhi di Leila.

L’epica scena in cui Tarkin distrugge Alderaan davanti a Leila, in Star Wars: Una Nuova Speranza (1977). L’estratto consente di vedere l’immagine originale dei due attori, da cui è partito il lavoro ricostruttivo per Rogue One.

In entrambi i casi, l’opportunità di affidare i ruoli agli interpreti originali appariva decisamente remota, dal momento che Peter Cushing era deceduto ormai da 20 anni e Carrie Fisher, scomparsa poco dopo l’uscita del film, non sarebbe comunque riuscita a prendere parte alle scene che hanno visto impegnato il personaggio di Leila. Impensabile quindi avvalersi delle loro performance anche nell’ottica di un ringiovanimento digitale.

La produzione in capo a Disney, nell’approvare la sceneggiatura di Tony Gilroy, ha scelto l’unica opzione a quel punto possibile: creare Tarkin e Leila interamente in 3D, affidando l’incarico alla consociata ILM (Industrial Light & Magic), storico studio di post-produzione, fondato da George Lucas per creare gli effetti speciali e visivi della serie Star Wars e successivamente entrato nella galassia Disney, così come la stessa Lucasfilm. Il VFX supervisor è stato per l’occasione il leggendario John Knoll, tra le figure più autorevoli in assoluto, in ILM dai tempi di Star Wars: Il Ritorno dello Jedi (1983).

La creazione di Tarkin e Leila ha seguito un percorso abbastanza standard, per quanto sorprendente nella qualità del risultato. I modelli sono stati creati utilizzando come riferimento le riprese dei due personaggi nel 1977 e come base dell’animazione sono state eseguite delle sessioni motion capture facciale con attori professionisti.

Il vfx breakdown di Tarkin è tra i principali motivi che è valso ad ILM una nomination agli Oscar per gli effetti visivi nel 2017, premio poi attribuito a Il Libro della Giungla, oggettivamente fuori categoria sia per tecnica che per portata innovativa.

Gemini Man: Will Smith raddoppia, in 3D

Una delle produzioni in grado di enfatizzare in maniera significativa il ruolo degli umani digitali nella produzione virtuale è stato senza dubbio Gemini Man, diretto nel 2019 da Ang Lee. La storia ci racconta le vicende di un killer prossimo alla pensione, Will Smith, che si ritrova braccato da un giovane concorrente… Will Smith.

Calma, non si tratta di un refuso, ma della portante narrativa che ha visto il popolare regista taiwanese giocare sul costante antagonismo tra l’ormai cinquantenne ex principe di Bel Air ed il suo alter ego ventenne, ricreato digitalmente dalla tecnica e della creatività di Weta Digital. Grazie ad una produzione pianificata nel minimo dettaglio, lo studio neozelandese è riuscito a ottimizzare una pipeline capace di animare il giovane Will Smith creando in 3D, a seconda dei casi, la figura integrale o, quando possibile, soltanto il suo volto.

Per pianificare le riprese è risultato fondamentale l’eccellente stato di forma dell’attore, fisicamente credibile in entrambe le versioni di età, per cui è stato possibile sottoporlo agli straordinari, interpretando sé stesso e prestandosi per le intense sessioni di motion capture facciale e corpo completo, necessarie ad animare il suo giovane “gemello”. Il risultato ottenuto da Gemini Man non ha probabilmente creato un punto di svolta nella storia del cinema, ma ha indubbiamente segnato un ulteriore riferimento per le produzioni ad alto budget.

Prima di lavorare su Gemini Man, sotto l’onnipresente guida di Peter Jackson, Weta Digital aveva maturato una notevole esperienza nell’animazione dei volti digitali, iniziata con la creazione di Gollum nella trilogia dell’Anello, proseguita con il remake di King Kong, in entrambi i casi grazie al motion capture di un autentico specialista come Andy Serkis.

Poi è stato sviluppato Facets, tecnologia 3D proprietaria capace di elevare ulteriormente il livello per generare performance facciali di livello assoluto, come quelle di Avatar, Tintin, The Hobbit e lo stupefacente lavoro svolto con Cesare e gli altri protagonisti della nuova trilogia del Pianeta delle Scimmie.

Al di là dell’incetta di premi e riconoscimenti ottenuti dai suoi risultati sul grande schermo, Facets nel 2017 si è finalmente aggiudicato anche l’ambitissimo Sci Tech Award, il premio Oscar dei VFX, ritirato per Weta Digital dal responsabile del suo sviluppo, l’italianissimo Luca Fascione.

Nel caso del giovane Will Smith, per ricreare digitalmente il modello 3D integrale e i tratti del volto, è stata scelta l’immagine di Steve Hiller, il protagonista del primo Independent Day, uno dei più noti disaster movie della storia del cinema: l’americanata per eccellenza, scritta e diretta nel 1996 da Roland Emmerich. Il film offriva moltissimo materiale di riferimento per una versione poco più che ventenne di Will Smith, coincidente con l’età del personaggio da creare digitalmente in Gemini Man. Il resto è storia recente.

Il vfx breakdown ufficiale di Gemini Man, pubblicato da Weta Digital

Il de-aging digitale in 3D: De Niro e Al Pacino a spasso nel tempo

Un progetto pressoché contemporaneo rispetto a Gemini Man, in grado di attirare ancora una volta l’attenzione sul trattamento digitale degli attori coinvolti nelle riprese è stato senza dubbio The Irishman, una delle prime produzioni ad altissimo budget di Netflix, che non ha badato a spese nel rilevare un progetto originariamente in capo a Paramount, confermando la direzione di Martin Scorsese ed un cast stellare, in cui figurano anche Robert De Niro, Al Pacino, Harvey Keitel e Joe Pesci, autore di una memorabile interpretazione.

L’obiettivo era discretamente ambizioso: girare il gangster movie definitivo. Ci sono riusciti? Ai posteri l’ardua sentenza, intanto abbiamo oltre tre ore di montato da apprezzare, in quella che possiamo classificare come una vera opera omnia per il suo genere, che vede i protagonisti susseguirsi in vari feedback, utili a narrare le vicende di una vita vissuta al soldo della malavita. Prudenzialmente non vi sveliamo il finale, ma vi anticipiamo che a livello tecnico ciò è equivalso a dover portare sullo schermo gli attori in varie età, nel contesto di ben 1750 shot complessive soltanto per quanto riguarda i VFX interessati dal de-aging digitale.

Tutto si può dire di Scorsese, sul suo carattere e sulla determinazione con cui in più occasioni ha difeso strenuamente le proprie posizioni, ma non lo si può tacciare di pigrizia nei confronti dell’innovazione, soprattutto quando si tratta di prendere il cinema decisamente sul serio.

Suo è, tra gli altri, Hugo Cabret, ad oggi uno dei pochissimi film in 3D, inteso quale proiezione stereoscopica, realmente degni di questo nome, essendo stato nativamente concepito per questo formato, anziché il solito risultato di una conversione posticcia utile soltanto a vendere biglietti a costo maggiorato nelle sale cinematografiche, senza aggiungere assolutamente nulla dal punto di vista artistico e narrativo.

Eventualità che purtroppo accade nella maggior parte delle produzioni, per cui vi evitiamo uno sterile elenco di “esempi da non imitare”. Nel contesto di una direzione artistica particolarmente illuminata, Hugo Cabret ha vinto un meritatissimo premio Oscar per gli effetti visivi e, nella sua particolare nicchia, rimane tuttora un film di culto.

In questo caso Scorsese ha invece scelto una metodologia piuttosto tradizionale, cercando di fare più girato possibile dal vero, nel modo più naturale possibile, senza costringere gli interpreti ad un intenso motion capture durante le riprese sul set fisico. Ciò ha comportato per ILM l’intero onere nel gestire le trasformazioni degli attori nel tempo, durante la fase di post-produzione. Detto così, potrebbe sembrare banale ma si tratta del risultato di un’idea di lungo corso, che Scorsese maturava da tempo, al punto che durante la pre-produzione del film, un paio di anni prima di iniziare le riprese vere e proprie, ha chiamato personalmente De Niro per fargli rigirare alcune scene chiave di Quei bravi ragazzi, nemmeno fosse l’ultimo degli stagisti di belle speranze, appena uscito da una scuola di recitazione di New York.

L’obiettivo era eseguire dei test di ringiovanimento digitale e rendersi conto se il risultato fosse o meno apprezzabile nel contesto di una produzione integrale. Scorsese e De Niro si sono detti entrambi soddisfatti dei test sui VFX diretti da Pablo Helman, ed estremamente fiduciosi sui risultati che il lavoro di de-aging in 3D sarebbe stato in grado di garantire dopo le riprese, immaginando la qualità del compositing finale di ILM.

Nei festival in cui è stato presentato, all’uscita nelle sale e sulla piattaforma digitale di Netflix, il film è stato accolto da un ottimo successo di critica e pubblico, mentre sul lavoro di de-aging in 3D si è assistito a pareri discordanti, da parte di chi l’ha giudicato realistico e di coloro che invece ne hanno sottolineato l’eccessiva caricatura. Esprimere un parere oggettivo risulta piuttosto complesso, in quanto non è possibile decontestualizzare l’immagine del film dalla visione artistica di Scorsese, che ha dato totale approvazione al progetto.

Il dettaglio sulla realizzazione dei vfx di The Irishman si sofferma sulla colossale opera di ringiovanimento digitale realizzata da Industrial Light and Magic. Lo stesso Martin Scorsese motiva e difende le ragioni che hanno orientato la sua scelta, particolarmente onerosa dal punto di vista della post-produzione.

Quando il deepfake amatoriale viene apprezzato più del 3D originale: il ruolo della AI nel futuro delle produzioni e degli attori virtuali

Tra le possibilità di editing che oggi l’intelligenza artificiale consente nella produzione video, un posto di riguardo lo meritano senz’altro l’utilizzo delle reti neurali per i processi di riconoscimento e modifica delle immagini. Si tratta di una possibilità già utilizzata in molti ambiti e ormai parte integrante della tecnologia di molti software di editing e rendering, per supportare sia le operazioni real time che quelle precalcolate.

Grazie al software open source DeepFakeLabs, il volenteroso youtuber Shamook ha editato alcune scene di The Irishman. Il deepfake ha prodotto un risultato che molti hanno ritenuto migliore rispetto all’originale di ILM, sia a livello di colpo d’occhio che per quanto riguarda la somiglianza di attori come De Niro rispetto alle loro interpretazioni giovanili.

Pensiamo al già citato Quei Bravi Ragazzi, piuttosto che Casino o addirittura Mean Streets e Taxi Driver, pellicole che vedono un giovanissimo De Niro all’alba del suo lungo sodalizio artistico con Martin Scorsese. La questione ha tutto il senso di essere, dal momento che per il deep learning della rete neurale sono state utilizzate circa 10.000 immagini di De Niro, catturate proprio dai film in vari periodi della sua carriera, coincidenti con le varie età toccate dall’attore durante l’evoluzione della storia di The Irishman.

La riflessione che sorge spontanea è: se una sola persona ha impiegato circa dieci giorni di lavoro per realizzare un footage di circa quattro minuti di questo livello, cosa può e potrebbe fare questo strumento nelle mani di produzioni con diversi zero in fondo alla cifra indicata nel budget?

Sicuramente molto, e non hanno sicuramente aspettato noi per attivarsi, ma va pur sempre ricordato che il deepfake può ottenere risultati eccellenti modificando un plate di partenza, non può creare da zero l’intera geometria di un personaggio tridimensionale.

Ragion per cui ci troviamo spesso di fronte a clamorosi risultati per la sostituzione di un volto. Al momento il campo di applicazione dei deepfake, integrato con il 3D puro, consentirebbe una ibridazione di più tecniche in grado di accelerare molto le produzioni, riducendo tempi e costi generali.

I risultati prodotti a livello amatoriale da Shamook sono diventati ben presto virali, mostrando anche al pubblico generalista le grandi potenzialità del deep learning applicato alle immagini.

Dal punto di vista tecnico, il deepfake apre dunque una serie di prospettive interessanti, ricordando una volta di più come il processo di animazione facciale in 3D sia da sempre molto impegnativo e dispendioso, come l’esperto di VFX Chris Nichols ha di recente rivelato ad Hollywood Reporter: “Gli umani digitali sono ancora molto difficili da realizzare ma non si tratta assolutamente in un obiettivo irraggiungibile, la questione è in questo momento soltanto gli studi più grossi sono in grado di farcela”.

Oltre a dirigere Chaos Group Labs, divisione di ricerca statunitense della l’omonima software house bulgara, sviluppatrice di V-Ray, uno dei principali motori di rendering utilizzati in ambito VFX, Chris Nichols è il fondatore di Digital Human League, un collettivo formato da 3D artist e ricercatori in varie discipline scientifiche che afferiscono all’uomo.

Tra gli obiettivi generali non vi è solo la ricerca per creare umani digitali realistici nell’immagine e nel comportamento, ma anche valutare come le persone in carne ed ossa percepiscono la loro presenza e sono in grado di stabilire delle interazioni.

La sperimentazione sugli umani digitali sta entrando nel vivo, con contesti di ricerca sempre più disciplinari. È il caso di Digital Domain che sta utilizzando tecnologie 3D e AI per creare un umano realistico sia dal punto di vista dell’immagine che da quello conversazionale.

Da questa precisa volontà è nato Douglas, un progetto totalmente in 3D con cui Digital Domain ogni tanto si diverte a sorprendere l’attenzione pubblica con esperimenti come il video che segue, risultato creativo del renderer neurale proprietario Charlatan. I più esperti noteranno imperfezioni nelle deformazioni del viso, a cominciare dalle labbra, ma l’effetto complessivo, considerato che si tratta di test di ricerca, può già considerarsi di grandissimo impatto.

L’umano digitale Douglas alle prese con la rimozione della mascherina e una sessione di animazione facciale generata a partire dalla riproduzione di una traccia di parlato.

Il successo mediatico dell’iniziativa di deepfake su The Irishman ha dato il via ad una vera mania nella rete, che ha visto tanti appassionati utilizzare per editare le scene più celebri di moltissimi film, spesso con uno spirito assolutamente goliardico, come quello che ha visto sostituire il volto dell’ispettore Callaghan con Arnold Schwarzenegger al posto dell’originale di Clint Eastwood, piuttosto che i meme in salsa social che volevano Nicolas Cage in ogni film possibile e immaginabile. Mode: passeranno, nel frattempo sono in grado di strappare un sorriso e dimostrare a tutti la portata di una tecnologia dal potenziale espressivo davvero impressionante.

La vera impresa della computer grafica: far invecchiare Brad Pitt e David Beckham!

Se ringiovanire un attore costituisce la prassi, ci sono circostanze, pur meno frequenti, in cui è opportuno avvolgere le lancette dell’orologio in direzione opposta. È accaduto ne Il Curioso Caso di Benjamin Button, una delle opere più singolari di David Fincher, chiamato nuovamente a dirigere Brad Pitt dopo i grandi successi ottenuti insieme con Fight Club e Seven, diventati ben presto dei film culto.

La storia di Benjamin Button vede un bambino che nasce con l’aspetto di un ultraottentenne, cui i medici non danno alcuna prospettiva di vita. Invece, il buon Benjamin non solo sopravvive, ma con la crescita subisce un percorso di ringiovanimento, al contrario delle altre persone coinvolte nella sua storia. Il cast, a cominciare dalla protagonista Cate Blanchett, è stato sottoposto ad un incredibile lavoro di trucco tradizionale, mentre per Benjamin Button è stato necessario ricorrere alle potenzialità creative del 3D, sia per la testa che per il volto.

Gli effetti visivi del personaggio interpretato da Brad Pitt hanno visto la supervisione di Eric Barba e sono stati realizzati in gran parte da Digital Domain, che si è occupata della post-produzione di 325 shot, per un totale di circa un’ora su schermo. Un lavoro senza mezzi termini titanico per l’epoca, il cui valore è stato confermato da molti riconoscimenti, tra cui il premio Oscar per gli effetti visivi nel 2009. È stata la prima pietra di un incredibile lavoro che, come vedremo anche nei prossimi paragrafi, avrebbe portato Digital Domain a diventare un brand di riferimento nella creazione degli umani digitali.

Prima di ulteriori casi di successo nel cinema, non possiamo non ricordare il lavoro svolto da Digital Domain nel 2012, per far rivivere digitalmente il rapper Tupac Shakur, protagonista di una incredibile partecipazione virtuale al festival Coachella.

Ciò che post Covid-19 è diventata quasi una prassi, anche per artisti vivi e vegeti, ai tempi appariva ancora come un evento del tutto eccezionale. I tempi e le esigenze di produzione cambiano in fretta, e le tecnologie devono adattarsi con altrettanta rapidità.

Making of (non ufficiale) dei vfx de Il curioso caso di Benjamin Button, vincitore del premio Oscar per i migliori effetti visivi nel 2009.

L’invecchiamento digitale non ha visto tra le proprie “vittime” soltanto Brad Pitt. Nel momento in cui scriviamo, un altro tra i più popolari sex symbol dello star system, vale a dire David Beckham, ha 45 anni e, dopo una lunga militanza nel calcio professionistico, continua a sfruttare in maniera molto efficace la propria notorietà per una serie di progetti commerciali e benefici. È il caso di una campagna della serie Malaria Must Die, che ha visto la star inglese prestare il proprio volto raccontandoci dal futuro la notizia della definitiva sconfitta della malattia.

Anche per quanto riguarda questo processo di invecchiamento digitale, l’intera post-produzione è stata affidata al team di Digital Domain, che ha prestato con entusiasmo la propria expertise alla causa di Malaria No More UK, l’ente benefico per cui Beckham è testimonial da molti anni.

Nel comunicato stampa ufficiale di Malaria Must Die, John Fragomeni, presidente di Digital Domain, ha precisato come: “Nel nostro lavoro capita spesso di creare immagini destinate a rimanere impresse nell’immaginario collettivo, purtroppo capita di rado l’occasione di farlo per una causa così nobile. Siamo assolutamente onorati di aver dato il nostro contributo ad una storia che meritava assolutamente di essere raccontata”.

Gli fa eco un motivatissimo Beckham: “Lavoro con Malaria No More UK da oltre dieci anni e devo dire che le loro campagne fanno sempre largo uso di innovazione e creatività per attirare l’attenzione sui problemi causati da questa malattia a livello globale. Stavolta è stato molto stimolante lavorare con il team di Digital Domain, utilizzando davvero la tecnologia nel modo giusto, per generare maggior consapevolezza per una causa così importante. Nessun padre dovrebbe più perdere un figlio a causa della puntura di un insetto”. Per la fase creativa è stata decisiva la collaborazione dell’agenzia Ridley Scott Creative Group, che fa capo al popolare regista e produttore inglese.

Attualmente supportata dal governo britannico e dalla Bill & Melinda Gates Foundation, Malaria No More UK può vantare diverse celebrità tra i propri testimonial, tra cui il popolare tennista Andy Murray, due volte vincitore a Wimbledon.

Il video principale della campagna Malaria Must Die. So Millions Can Live, prodotta da Malaria No More UK, con David Beckham ed il proprio alter ego digitale, invecchiato di ben 35 anni dai VFX di Digital Domain.

Attori virtuali. L’immagine dei grandi del passato, tra etica e opportunità di business: un dibattito aperto

Nei giorni in cui Microsoft ha depositato un curioso brevetto per “resuscitare” i morti in versione avatar 3D, per fortuna senza riesumarle dal riposo eterno, è tornata in auge la notizia, datata 2019, che vorrebbe ricreare James Dean in digitale per affidargli un ruolo in Finding Jack, war movie ambientato durante lo storico conflitto in Vietnam. Si tratta di una sceneggiatura non originale, basata sull’adattamento dell’omonimo romanzo di Gareth Crocker.

In attesa di capire se e quando il film prodotto e diretto dai carneadi Anton Ernst e Tati Golykh (Magic City Films), originariamente previsto per il 2021, sarà effettivamente disponibile al pubblico, risulta evidente come il coinvolgimento della star di Gioventù Bruciata sia da interpretare come una mossa di marketing in grado di attirare attenzione su un titolo altrimenti piuttosto privo di pretese artistiche.

Va ricordato che James Dean, icona culturale per eccellenza dei belli e dannati del cinema americano, è scomparsa nel lontano 1955, quando un incidente stradale lo ha ucciso a soli 24 anni, mentre era ormai lanciatissimo verso il successo grazie a titoli come La valle dell’Eden e Il Gigante, che gli valsero in entrambi i casi una candidatura postuma al Premio Oscar come miglior attore.

Magic City Films aveva già in passato provato ad ottenere i diritti di sfruttamento di immagine di Elvis Presley e Paul Newman, ma le rispettive famiglie si erano opposte a questa eventualità. Nel caso di James Dean, i diritti sono stati concessi direttamente dalla società CMG Worldwide, attualmente confluita in Worldwide XR, che al momento, dopo una lunga campagna di acquisizione, rappresenta circa 400 star del passato. Il CEO di Worldwide XR, Travis Cloyd, sostiene con fermezza come: “Gli influencer vanno e vengono, le leggende non moriranno mai”.

Senza entrare nel contesto delle questioni legate allo sfruttamento dei diritti di immagine, le reazioni non sono tardate ad arrivare, con espressioni di totale disapprovazione. È il caso dell’attore Chris Evans, che ha definito l’idea come “terribile” e “del tutto priva di senso, come usare un computer per far dipingere altri quadri a Picasso, piuttosto che far scrivere nuove canzoni a John Lennon”, giusto per citare le espressioni non censurabili. Per contro, il popolare interprete di Capitan America è stato accusato di essere soltanto invidioso per il fatto che gli attori digitali potessero portargli via il lavoro, facendo sterilmente scadere il livello della polemica in ragioni di pura convenienza economica.

Le controparti non si sono scomposte più di tanto di fronte alle critiche, facendosi trovare pronti a questa eventualità. Anton Ernst (Magic City Films) si è limitato a ribadire come: “Siamo onorati di avere il supporto della famiglia di Dean che lo vede come il suo quarto film, quel film che purtroppo non è mai riuscito a realizzare. Non intendiamo in alcun modo deludere i suoi fan”. Al tempo stesso, Travis Cloyd (Worldwide XR) si è dimostrato alquanto sicuro nel difendere il proprio business: “Stiamo facendo qualcosa di dirompente, è normale che ad alcuni ciò non piaccia, ma gli umani digitali sono qualcosa di inevitabile”.

L’opinione di Evans ha comunque trovato ampia eco nelle parole di molti suoi colleghi, come Bette Midler, Dylan Sprouse o Elijah Wood, finendo per suscitare persino l’ironia di artisti direttamente coinvolti nel progetto.

È il caso di Diane Warren, che quando le è stata proposta la colonna sonora del film si è detta: “Felice che almeno per scrivere le canzoni sia stata scelta una persona viva”. Giusto per comprendere come la cosa sia stata presa sul serio, nel contesto di una polemica di cui, dopo il #metoo e le presunte discriminazioni sugli artisti di colore, forse il cinema americano avrebbe fatto volentieri a meno.

Il caso mediatico della risurrezione di James Dean supera infatti la portata stessa dell’evento, riportando all’attualità un argomento da sempre al centro di un dibattito che probabilmente non avrà mai fine, oppure potrebbe normalizzarsi allo stesso modo in cui giriamo senza nemmeno pensarci un biopic su un celebre personaggio del passato.

Anche in quel caso c’è uno sfruttamento economico, ma il fatto che il personaggio sia il soggetto della storia e non il suo interprete ne ribalta totalmente la percezione. Difficile valutare la prospettiva culturale che l’associazione tra il digitale e l’identità dell’uomo potranno assumere negli anni a venire. Per ora incide in larga misura un condizionamento negativo determinato dalla forte componente speculativa legata a queste iniziative.

Tra gli attori consapevoli dell’eventualità, è decisamente singolare il caso di Robin Williams, che prima della sua tragica scomparsa, avvenuta nel 2014, sapendo a cosa stesse andando incontro, ha espressamente pubblicato la volontà che la propria immagine non fosse utilizzata digitalmente dopo la sua morte, ottenendo legalmente il rispetto di questa memoria almeno sino al 2039. Una posizione portata avanti con fermezza dalla figlia Zelda, che non ha ovviamente tardato a mostrare la propria contrarietà alla notizia del James Dean in salsa Finding Jack.

Nello sfruttamento economico dell’immagine di artisti scomparsi i precedenti non mancano di certo. È il caso dello spot pubblicitario della cioccolata Dove, che ha riportato digitalmente in vita una Audrey Hepburn nel fiore dei suoi anni. La casistica di star riportate in vita grazie al 3D è già piuttosto ampia e comprende icone senza tempo come Marylin Monroe, Bruce Lee e Michael Jackson.

Tra favorevoli e contrari in quella che si prospetta essere una curiosa stagione artistica di necromanzia digitale, di certo c’è solo una cosa: le tecnologie 3D e AI proseguiranno il loro percorso di sviluppo e ci consentiranno di apprezzare umani digitali sempre più realistici e credibili nella loro simulazione.

Lo spot della cioccolata Dove vede una Audrey Hepburn realizzata interamente in 3D da una realtà leader nei VFX come Framestore. Prodotto nel 2013 con un importante dispendio di risorse, venne particolarmente apprezzato al momento della sua uscita ma rivalutandolo ora, almeno dal punto di vista tecnico, pare “invecchiato” piuttosto male: l’animazione facciale risulta piuttosto legnosa e l’integrazione tra le varie parti presenti nella scena rivela alcune incoerenze nel lighting che finiscono per generare una sensazione di generale incertezza nell’immagine. Il livello medio delle produzioni negli ultimi anni si è infatti alzato vertiginosamente.

Scritto da:

Francesco La Trofa

Giornalista Leggi articoli Guarda il profilo Linkedin