• Adobe Authorized Training Centre
  • Autodesk Authorised Training Centre
  • Pearson Vue Authorized Training Centre
// Pagina 1 di 2
15.06.2020 # 5548
Tim Burke, leggendario VFX supervisor, dona meravigliosi consigli per chi inizia questa carriera !

Francesco Pontolillo // 0 comments

Tim Burke, leggendario VFX supervisor, dona meravigliosi consigli per chi inizia questa carriera !

Se la tua carriera da sogno è nel magico mondo degli effetti visivi, dai un´occhiata al consiglio che uno dei più importanti supervisori VFX del mondo, Tim Burke, ha condiviso con tutti noi.

Un  “animale fantastico” vola via dalle pagine di un libro per apparire per la prima volta sul grande schermo. Un classico animato a cui viene data nuova vita grazie al 3D,  o viene ricostruito con una combinazione di live-action ed effetti digitali. In entrambi i casi, e in molti altri ancora, un supervisore VFX come Tim Burke si trova dietro le quinte, facendo sentire pellicola e 3D come un unico ambiente coeso. Una esperienza in cui gli spettatori non pensano due volte alle interazioni tra i personaggi, reali o meno, con il mondo e le creature attorno.

L´impressionante curriculum di Burke comprende film come "Gladiator", "Hannibal", sette dei film di "Harry Potter" e i due film di "Fantastic Beasts". Attualmente, è il supervisore della VFX nella live-action della Disney: "La Sirenetta".

Se la tua carriera da sogno è nel magico mondo degli effetti visivi, dai un´occhiata al consiglio che Burke ha condiviso con tutti noi.

Come ha iniziato con gli effetti visivi?
Ho iniziato più di 33 anni fa lavorando come designer in uno studio video, lavorando prevalentemente in televisione. Ho messo le mani su alcune delle primissime tecnologie digitali realizzate da una società britannica chiamata Quantel e ho iniziato a imparare digital painting e compositing digitale mentre ero sul lavoro. Questo mi portò a lavorare in spot pubblicitari di fascia alta nei primi anni ´90, dato che all´epoca non esisteva un´industria cinematografica digitale VFX nel Regno Unito. Lavorare negli spot pubblicitari mi ha dato molta esposizione a molte tecniche diverse come l’uso del green screen, il controllo del movimento e l´animazione in computer grafica. Mi sono abituato a lavorare con registi che mi guardavano dietro le spalle 12 ore al giorno.

La conoscenza e l´esperienza di diverse tecniche cinematografiche e di effetti visivi mi hanno portato a passare al cinema quando, insieme a due colleghi, mi è stato chiesto di allestire la Mill Film per Ridley e Tony Scott. Questo mi ha dato l´opportunità di lavorare con due dei registi più creativi che lavoravano in quel periodo, supervisionando regolarmente film e serie televisive per entrambi. La società stessa è stata chiusa nel 2002 e ho scelto di diventare freelance, essendo stato incaricato per la realizzazione del terzo film di "Harry Potter" come supervisore della produzione VFX. Da lì ho semplicemente continuato a lavorare. Ad un certo punto ho supervisionato tre film di "Harry Potter" contemporaneamente. Era pazzesco il lavoro che abbiamo fatto, ma i film di "Harry Potter" sono stati la nascita dell´industria britannica della VFX e sono orgoglioso di averne fatto parte.

Qual è stato il suo primo lavoro di produzione?
Il mio primo lavoro è stato in realtà in televisione, dal vivo, creando motion graphic che veniva trasmessa in diretta. È stato un ottimo modo per imparare a rispettare le scadenze. A volte lavoravo ancora sull´immagine 30 secondi prima di doverla trasmettere. Il mio primo lavoro cinematografico è stato come supervisore digitale e compositore VFX alla Mill Film. Il mio primo lavoro sul fronte della produzione è stato come supervisore VFX per la Warner Bros.

Che tipo di formazione ha avuto? Di quale formazione ha bisogno qualcuno per diventare un supervisore VFX?
Ho studiato design alla scuola d´arte e tendevo a rinchiudermi nella stanza della macchina da presa per fare animazione in stop motion. Questo nei giorni precedenti alla computer grafica! Avevo una buona conoscenza del cinema e della fotografia, avendo costruito la mia camera oscura a 16 anni nel bagno di famiglia di casa. Ma la mia vera formazione è stata tutta imparata sul lavoro. Mi sono lanciato in ogni sfida che mi si presentava, che mi ha portato a passare mesi a lavorare in tutto il mondo su location di grandi film.

Oggi c´è molta competizione. L´industria è così massiccia e ci sono così tanti grandi artisti che lavorano in tutte le strutture. Direi che se vuoi diventare un supervisore VFX, devi lavorare in una struttura VFX e cercare di acquisire quanta più esperienza possibile in diverse discipline, in modo da avere un´ampia comprensione dell´intero processo. Supervisionare uno o due spettacoli all´interno dell´azienda e poi uscire sul set di un film. Sperimentatelo dal punto di vista della produzione, in modo da iniziare a capire il processo di realizzazione del film. Quello che ho imparato più di ogni altra cosa è come vengono fatti i film. Sono bestie complesse e bisogna capire il processo per avere successo nel proprio lavoro.


Come si trova lavoro?
Ho lavorato con alcuni registi in diverse occasioni, quindi o si tratta di lavoro ripetitivo o ricevo una chiamata da uno dei dirigenti dello studio VFX.

Qual è una cosa che vorrebbe che tutti sapessero del suo lavoro?
La cosa più importante che vorrei che tutti sapessero del mio lavoro è che si tratta di un enorme lavoro di squadra. Sono la persona fortunata in prima linea che lavora con il regista, ma è davvero l´intero team che deve essere riconosciuto per aver creato il lavoro. Non è un lavoro che si può fare da soli. Hai bisogno del supporto e del talento di centinaia di persone con una miriade di competenze diverse.

Qual è la parte più difficile del suo lavoro?
La parte più difficile è la fine, quando ci sono una manciata di scatti che non sono buoni come dovrebbero essere, ma non c´è più tempo. Questa è la parte che odio e che mi fa dannare di più!

Di quali competenze hai bisogno per diventare un supervisore VFX?
Devi essere calmo e creativo. Hai bisogno di un livello di abilità tecnica che ti permetta di comprendere appieno il processo VFX e la realizzazione di film, buone capacità di comunicazione, e la capacità di capire e interpretare le note oscure dei registi.

Cosa cerchi al momento dell´assunzione?
Buone capacità di comunicazione. Fiducia ma non arroganza. La capacità di svolgere il proprio lavoro ma con la volontà di imparare. E il senso dell´umorismo: ne avete bisogno!

Hai qualche consiglio per il primo giorno di lavoro?
Non distrarre il direttore quando lavora. Meglio parlare quando gli si parla, ma essere sempre visibili e a portata di mano. E state calmi. La strada da percorrere è lunga e qualsiasi cosa pensiate possa essere un problema oggi non è nulla in confronto alle cose che incontrerete lungo la strada.

Quali consigli darebbe agli aspiranti supervisori VFX?
C´è molta competizione là fuori. Se vuoi davvero essere un supervisore, fai l´esperienza generale del processo di cui ho parlato, fai il grande passo e cerca di ottenere un lavoro dal lato della produzione. L´esperienza sul set è inestimabile. È molto facile sentirsi a proprio agio in una struttura ed entrare in una routine, ma a volte è bene sfidare questa comoda routine.



09.06.2020 # 5537
Tim Burke, leggendario VFX supervisor, dona meravigliosi consigli per chi inizia questa carriera !

Francesco Pontolillo // 0 comments

Cosa la demo di PS5 e Unreal Engine 5 ci mostra sul futuro della grafica 3D

Lumen in the Land of Nanite, la demo tecnica di Unreal Engine e PS5, ci dona uno sguardo sorprendente su cosa aspettarsi dalla next-gen tech e dalla CGI! Il 3D è destinato ad un salto

Lumen in the Land of Nanite è una demo PS5 Unreal Engine 5 in tempo reale che Epic ha presentato oggi per annunciare il suo nuovo motore.

Potete guardare la sorprendente demo di 9 minuti subito sotto. È una vetrina di ciò che i giochi possono diventare con l’Unreal Engine 5, e che Epic ha confermato di essere in play  su una PS5 in tempo reale.


Questa demo è stata progettata per evidenziare due nuove importanti tecnologie presenti in Unreal Engine 5, Nanite e Lumen (da cui il titolo della demo.) La tecnologia Nanite è “la geometria micropoligonale virtualizzata che permette agli artisti di creare tanti dettagli geometrici quanti ne può vedere l’occhio”, secondo Epic. Il comunicato stampa prosegue spiegando che ora “i modelli 3d di qualità cinematografica, comprendenti centinaia di milioni o miliardi di poligoni, possono essere importati direttamente in Unreal Engine – qualsiasi cosa ZBrush scolpisca a scansioni fotogrammetriche su dati CAD”. Questo spiega perché l’aspetto dell’ambiente è così fotorealistico nella demo.

Lumen invece è una tecnologia che si concentra tutta attorno all’illuminazione in gioco. Come spiega Epic, “gli artisti e i designer possono creare scene più dinamiche utilizzando Lumen, ad esempio, cambiando l’angolo del sole a seconda dell’ora del giorno, accendendo una torcia elettrica o facendo un buco nel soffitto, e l’illuminazione indiretta si adatterà di conseguenza”. Per gli sviluppatori, questo significa che “un artista può spostare una luce all’interno dell’Unreal Editor e l’illuminazione ha lo stesso aspetto di quando il gioco viene eseguito su console”.

Tutto ciò cambierà il paradigma esistenziale della grafica 3D. La renderà facile, semplice, gestibile anche da chi ha poca esperienza. Fino ad ora non è stato affatto così. Ci voglio anni per capire tutta la “magia” dietro la CGI, e svariate migliaia di test.

Ma per scoprire cosa significa davvero UE5 per lo sviluppo di videogiochi, bisogna andare direttamente dalle persone che “costruiscono” videogiochi. Così contattando alcuni dei migliori talenti di oggi andiamo a scoprire come Lumen, Nanite e Unreal Engine 5 potrebbero influenzare il processo di sviluppo dei videogiochi futuro e della grafica 3d in generale

Siamo decisamente di parte, dato che siamo partner/licenziatari di Epic dal 2010 e abbiamo pubblicato quasi tutti i nostri giochi con la loro tecnologia”, dice Carlos Bordeu, uno dei tre co-fondatori dello studio ACE Team, “ma devo dire che la demo che hanno presentato mi ha dato una sensazione simile a quando hanno iniziato a presentare Unreal Engine 3 per la prima volta. Sembrava un enorme salto in termini di grafica, e credo che Lumen (e soprattutto Nanite) sia una delle poche vere dimostrazioni di ciò che la prossima generazione porterà con la sua tecnologia.


“Dal 2007, in studio, creiamo mappe normali, per portare dai modelli ad alta risoluzione ‘falsi’ dettagli geometrici aggiuntivi a modelli semplificati, e il solo pensiero di importare direttamente nel gioco mesh ad alta risoluzione sembra quasi surreale”.

È davvero impressionante vedere una nuova tecnologia che funziona su una console di prossima uscita e che sembra possa diventare uno standard per le generazioni future”.

Bordeu, il cui lavoro include Rock of Ages e Zeno Clash, non è l’unico ad entusiasmarsi per Nanite: la tecnologia UE5 che permette agli sviluppatori di importare risorse immensamente dettagliate direttamente nei videogiochi, e, nel fare ciò, riduce il tempo speso per la creazione di LOD e mappe normali. Gli sviluppatori sembrano non essere entusiasti della promessa di Nanite, ma non senza qualche avvertenza realistica.

“Molto tempo viene attualmente speso per ottimizzare la geometria e le texture nei giochi”, dice Liam Tart, un artista dell’ambiente di Unknown Worlds, lo studio dietro Subnautica, “e molta attenzione deve essere messa in questo aspetto della produzione per ogni risorsa che si realizza. Anche se non credo che questa necessità andrà mai via del tutto (ci saranno sempre delle limitazioni hardware), il pensiero di non essere così vincolati dai vincoli di budget geometrico /texture è sicuramente eccitante.

Unreal Engine renderà democratica la computer grafica, permettendo a chiunque di poter creare capolavori, con poca fatica e tanti risultati (rispetto a quanto è stato sino ora si intende).

Voi siete pronti ad abbracciare il futuro *?

*distanziamento sociale a parte.

17.03.2020 # 5484
Tim Burke, leggendario VFX supervisor, dona meravigliosi consigli per chi inizia questa carriera !

Francesco Pontolillo // 0 comments

Open Source Mask. È online la Mascherina stampabile in 3D, ed è Made in Italy

Il maestro napoletano della fotografia contemporanea ospite alla ilas per un incontro con gli studenti dell´Accademia ILAS

A causa della tremenda diffusione del Coronavirus che negli ultimi giorni ha invaso tutti i continenti del globo (ad eccezione dell’Antartide), e purtroppo soprattutto dell’Italia, sempre più difficile risulta reperire una mascherina, se non pagandola a peso d’oro. Questo è ancor più vero dal momento che sono effettivamente utili a proteggersi dal virus solo alcune di queste mascherine. Molti stanno quindi adottando diverse soluzioni fatte in casa, alcune più che utili diventano persino comiche. La verità è che queste soluzioni date dal fai da te, non contrastano il propagarsi del virus efficacemente, come dovrebbero questi supporti di protezione e non impediscono la diffusione a soggetti a rischio di eventuali elementi patogeni.
Come in tutte le situazioni di caratura mondiale, c’è chi cerca di approfittarsi dei bisogni e del momento di crisi, e chi invece cerca di fare il più possibile per aiutare.
Persino nel web: c’è chi ha inserito il malware AZORult nelle mappe online che mostrano il contagio nel mondo di coronavirus e chi invece ha creato il tool EpiRisk, che aiuta a fare una previsione dei possibili contagi e di come potrebbe evolversi la situazione virulenta, nel globo.
Per fortuna però come appena accennato, l’ingegno umano e la capacità di fare del bene, riescono sempre ad abbattere ogni cattiva azione.
Grazie ad un team tutto italiano, da oggi è possibile stampare la propria mascherina usa e getta in 3D, usando un modello messo a disposizione gratuitamente dal team, ed assemblandola a casa. Ed è proprio grazie all’intervento di Open Source Mask che è possibile realizzare a casa tali mascherine (ovviamente a patto di possedere una stampante 3D).

Il progetto Open Source Mask trova origine in una idea di Vitantonio Vacca. L’idea ha poi contagiato (perdonate il gioco di parole) altri membri del team, che hanno partecipato al progetto realizzativo: Ambrogio Occhipinti, Giuseppe Occhipinti, Savino Carbone e Davide Saponieri.

Grazie al desiderio di voler creare qualcosa che potesse aiutare il mondo intero, ora abbiamo a disposizione una risorsa in più per prevenire il diffondersi del virus.
Il file 3D scaricabile e stampabile contiene infatti all’interno una sorta di cartamodello di mascherina che servirà sia per le parti semirigide, sia come guida per effettuare i tagli sulle parti di cotone o più in generale stoffa, da utilizzare.
Da qui è possibile quindi assemblare il tutto grazie alle istruzioni che sono presenti sulla home del sito.
C’è chi ha ottenuto i filtri (l’unica parte non stampabile in 3D) grazie agli strati dei sacchetti dell’aspirapolvere folletto o ancora è possibile acquistare questo materiale in diversi siti che spediscono direttamente rotoli di stoffa (a prezzi notevolmente inferiori di quelli a cui si trovano molte delle mascherine stesse)
I file, le istruzioni e le indicazioni riguardo questo fantastico progetto italiano, Open Source Mask, sono rintracciabili all’indirizzo omonimo: www.opensourcemask.com
Non ci resta che dire: Bravi!!

03.03.2020 # 5464
Tim Burke, leggendario VFX supervisor, dona meravigliosi consigli per chi inizia questa carriera !

Francesco Pontolillo // 0 comments

Volumetric BioPrinting – Stampa rapida 3d di tessuti organici? Ora si

La stampa 3D può ora fare affidamento su una tecnica rivoluzionare che permette di stampare in pochi secondi! La sua applicazione biomedica è strabiliante!

I ricercatori di EPFL e del centro medito universitario di Utrecht, in Olanda, hanno sviluppato un sistema ottico estremamente rapido, per poter scolpire forme complesse, in una struttura a base di hydrogel, vascolarizzato il tessuto risultante.

Questa tecnica straordinaria potrebbe cambiare del tutto il campo della bio ingegneria applicata ai tessuti organici.


Gli ingegneri biomedicali possono già oggi creare organi artificiali e tessuti che possono essere utilizzati per sviluppare e testare nuove medicine, riparare tessuto danneggiato e persino rimpiazzare interi organi del corpo umano. Tuttavia, il sistema attuale di fabbricazione, limita la loro abilità di produrre forme complesse e ottenere tessuti utilizzabili, a causa dei lunghi tempi di stampa (che non permettono ad un tessuto di rimanere in vita).


I ricercatori al LAPD (Laboratory of Applied Photonics Devices), nella scuola di ingegneria biomedica di EPFL, hanno lavorato con i colleghi della Utrecht University per produrre una tecnica ottica, che richiede solo pochi secondi per scolpire un complesso tessuto, in un gel a base di acqua, biocompatibile, infuso con cellule staminali. Il tessuto così ottenuto può successivamente essere vascolarizzato aggiungendo cellule Endoteliali (il tessuto interno dei vasi sanguigni NDR).


Il team descrive questo sistema di stampa ad alta risoluzione in un articolo apparso nella pubblicazione “Advanced Materials”. Questa tecnica cambierà il modo in cui l’ingegneria cellulare ed i suoi specialisti, lavorano, permettendogli di creare organi funzionali, con caratteristiche personalizzate, stampate in 3D.


Questa tecnica è chiamata “Volumetric BioPrinting”. Per creare un tessuto, i ricercatori, proiettano un laser dentro un tubo rotante riempito dell’hydrogel pieno di staminali. Scolpiscono il tessuto focalizzando l’energia della luce in precise posizioni, che poi tendono a solidificarsi.

Dopo solo alcuni secondi, una forma 3D complessa appare, sospesa nel gel. Le cellule staminali nell’hydrogen, sono in gran parte non danneggiate nel processo. I ricercatori a questo punto della lavorazione, introducono le cellule endoteliali per vascolarizzate il tessuto.


I ricercatori hanno mostrato che è possibile creare un tessuto di una lunghezza pari già a svariati centimetri, il che rende tale prodotto clinicamente utile. Esempi di questo processo includono valvole simili a quelle cardiache, un menisco ed una struttura femorale complessa.

Sono anche stati capaci di ricreare strutture interconnesse come gomiti e ginocchia.


“Differentemente dal bioprinting tradizionale, che si mostra ancora come un processo lento, strutturato livello per livello, la nostra tecnica è veloce e permette una maggiore libertà di design”, spiega Damien Loterie, un ricercatore del laboratorio, conche uno dei coautori dello studio.


Il lavoro dei ricercatori è davvero una rivoluzione. “Le caratteristiche del tessuto umano, dipendono in larga parte su un sistema altamente sofisticato di strutture extracellulari. L’abilità di ricreare questa complessità, può portare effettivamente ad un numero concetto di possibili applicazioni cliniche”, spiega Paul Delrot, un altro co autore.

Usando questa tecnica, i laboratori possono produrre in massa tessuti artificiali ed organi, ad una velocità mai vista prima. Questa sorta di replicabilità è essenziale quando ci si riferisce a test in vitro, e può aiutare a cancellare il bisogno dei test animali. 


Questo è solo l’inizio. Crediamo che il nostro modo, potrà essere scalato nella produzione in massa per creare una nuova ampia gamma di tessuto cellulare. Per non parlare di device medici e impianti personalizzati”, chiude Christophe Moser, capo del laboratorio LAPD.


Incredibile assistere anche oggi alla velocità con cui la scienza, assieme alle tecniche di stampa 3D, riesce a progredire. Speriamo di vederne quanto prima risultati positivi!


24.02.2020 # 5420
Tim Burke, leggendario VFX supervisor, dona meravigliosi consigli per chi inizia questa carriera !

Francesco Pontolillo // 0 comments

The Aeronauts – Imprese titaniche in cieli totalmente digitali

The Aeronauts si mostra con scenari spettacolari. Ma come sono stati realizzati?

Da qualche anno a quesa parte, sono divenuti possibili film in ambientazioni alquanto estreme. Ambientazioni per cui la gestione della ripresa e la creazione delle inquadrature, sarebbe risultata, beh… difficile!

E’ questo ad esempio il caso di “Vita di Pi”, vincintore, nell’anno della sua uscita del premio oscar ai migliori effetti speciali, o ancora del nuovo film targato Amazon, “ The Aeronauts ”.

Il film tratta le vicende di Amelia Wren e James Glaisher, che a bordo di una mongolfiera effettuano una serie di pericolose ascensioni in mongolfiera, per effettuare i primi studi sulle previsioni meteorologiche. Liberamente ispirato da una storia vera, il film sviluppa molte delle sue scene principali, proprio nell’immenso cielo.

Ecco quindi che il digitale, sempre più necessario nelle produzioni cinematografiche, qui diventa un obbligo.

Gli effetti speciali realizzati per il film, vista la location,  rischiavano, per quantità e presenza nel frame, di farsi sentire troppo. E questo è un aspetto da considerare, se non si vuole rischiare di dare al lungometraggio, un effetto troppo “finto”. 

Christian Kaestner, supervisori agli effetti speciali della Framestore, incaricata di sviluppare tutti i principali elementi 3D, ricordando questo punto spiega: “per evitare il problema del “troppo 3D”,  abbiamo stabilito fin dal principio che ogni singolo elemento digitale, sarebbe dovuto andare in supporto alla narrazione, non prendendo il sopravvento, ma piuttosto, rimanendo nell’ombra, quasi invisibile all’attenzione dello spettatore, ma presente.

Ovviamente in questa ottica anche l’integrazione totale tra girato e digitale diveniva fondamentale. Sono stati realizzati 500 shot in CGI, e circa tre quarti di essi, avevano come unico elemento reale il cesto posizionato sotto la mongolfiera.

The Aeronauts - Trailer di uscita


La realizzazione degli effetti speciali de “The Aereonauts” è stata possibile a Framestore, dividendo il lavoro, per tutte le filiali della compagnia sparse per il mondo. 

Kaestner spiega: “Ad esempio, Stuart Penn, uno dei nostri supervisori dell’ufficio di Londracontrollava il lavoro, che per grande parte era invece realizzato a Montreal, mentre alcune delle sequenze sono state finalizzate nei nostri uffici di  Poona ( città dell’india N.D.R.).

Ultimamente è diventato alquanto comune dividere il lavoro lungo tutti questi uffici. In questo senso, la nostra pipeline, per non incappare in problemi e rallentamenti, è diventata parecchio robusta.”

Al di là della realizzazione dei vari cieli, la creazione della Londra del 1862, è stata una delle grandi sfide del film.

“Siamo partiti con tanta ricerca in merito alla forma e architettura della capitale inglese di quel tempo.

A questo si è aggiunta anche la necessità intrinseca degli shot, che prevedevano il take-off ed il volo della mongolfiera con Hames e Amelia che volteggiano nello skyline di Londra, a richiedere parecchia attenzione realizzati.”

Per garantire il massimo della qualità, sono state utilizzate le antiche mappe di Londra: “Le abbiamo proiettate su di un piano e sviluppato da li il layout delle strade, piazzando successivamente gli edifici principali a mano e piazzando il resto delle strutture cittadine e dei parchi, utilizzando un tool di istanze che ci ha permesso di popolare le grandi aree con variazioni di palazzi e vegetazione. Abbiamo costruito una libreria di edifici aziendali e residenziali, che poi abbiamo mixato in differenti modi, compresi anche di texture e dettagli, in modo da ottenere variazioni realistiche. Solo così abbiamo potuto ricostruire i 270 gradi di visuale sul paesaggio, che alcune scene a volo d’uccello richiedevano.”

The Aeronauts - Making of


E se questo come lavoro vi sembra già degno di nota, aspettate di sentire quanto è stato necessario ricreare per le scene di film ambientate in cielo.

Per tutto il film, le scene del cielo sono state mappate e progettate, per scorrere alla loro velocità di viaggio reale della mongolfiera, rispettando inoltre anche le altezze di volo.

Questo aspetto tecnico ovviamente ha permesso al team di animazione di sentire fin da subito la velocità e la spazialità delle scene, rispetto a come ad esempio il pallone aerostatico si sarebbe dovuto muovere nell’aria.

Lo stesso pallone aerostatico ha rappresentato una sfida non da poco. Il rig (ossia l’insieme di controlli di animazione) che è stato creato per l’occasione, doveva ricreare coerentemente di fatto un pezzo enorme di stoffa, riempito di gas, tenuto insieme da cavi, sempre in movimento ed in deformazione. 

In questo senso si è lasciato grande spazio alla simulazione. L’animazione tradizione è entrata in gioco infatti soltanto per aggiungere o sistemare piccole deformazioni sulla silhouette del pallone aerostatico. Il team di VFX ha letteralmente “gonfiato” il pallone dall’interno, facendo il modo che il tessuto spingesse da sotto le corde che tengono insieme il tutto, donando quindi un movimento estremamente realistico. Il controllo del movimento è quindi avvenuto principalmente modificando i parametri delle forze fisiche che entravano in gioco nella simulazione stessa.

Un altro protagonista delle scene in volo, oltre alla mongolfiera, è stato l’immenso ammasso di nuvole. Per la loro realizzazione, si sono usati sistemi di istanza, normalmente utilizzati ad esempio per la distribuzione di alberi o elementi naturali in un paesaggio.

E’ straordinario vedere quanto lavoro, cura, e amore per la propria arte digitale, sia celata dietro una simile produzione!

Per maggiori informazioni sulle varie fasi di lavorazione di questo lungometraggio, potete leggere l’intervista integrale a Christian Kaestner, all’indirizzo: https://www.artofvfx.com/the-aeronauts-christian-kaestner-vfx-supervisor-framestore/

Per vedere altri lavori della compagnia di effetti speciali Framestore, potete visitare il link: https://www.framestore.com

24.02.2020 # 5419
Tim Burke, leggendario VFX supervisor, dona meravigliosi consigli per chi inizia questa carriera !

Ilas Web Editor // 0 comments

Al di là del Cringe: Come “Sonic the Hedgehog” si è salvato dalla catastrofe

Sonic the Hedgehog ha da poco ottenuto il favore del pubblico di sala, dopo essersi quasi perso dietro un cattivo design

Ad inizio 2019 la Paramount rilascio uno dei più assurdi trailer di tutti i tempi, dando in pasto ad internet, il teaser di “Sonic the Hedgehog”. 

Sonic, una delle più amate icone al mondo dei videogame, è stato totalmente antropomorfizzato, con tanto di denti umani, occhi separati con una distanza proporzionale ai canoni di un viso normale e con un inquietante corpo allungato, fornito anche di polpacci e dita pelose.

Alcune settimane dopo l’uscita del trailer, il regista Jeff Fowler, ha twittato una posticipazione del film fino al San Valentino 2020. La giustificazione, neanche tanto lontana dal vero è che gli artisti del film, si sarebbero presi un po’ più di tempo per “renderete il design di Sonic, ancor più corretto”.

In questi giorni, il pubblico, ha avuto modo di vedere, come il character è stato infine  ridisegnato, ottenendo ad onor del vero, una critica molto positiva.

Sonic è diventato a tutti gli effetti il nuovo Re dei film sui videogiochibattendo ogni record di botteghino, per un film videoludico.

Incassando ben 57 milioni di dollari in 3 giorni, Sonic, ha battuto Pokemon: Detective Pikachu, ottenendo il mattoide sordo di sempre per un film di questo settore.

Il lavoro di re-design del personaggio è stato portato avanti da Tyson Hesse, tra l’altro già disegnatore dei fumetti di Sonic, pubblicati dalla Archie Comics, nonché designer della fantastica sequenza di introduzione, di Sonic Mania del 2017.

Scopriamo come è stato ridisegnato l’intero personaggio in questo interessantissimo video

 

Sonic - Prima e dopo il Restyling


Solo per il restyling di questo personaggio, il budget ha richiesto un contributo economico aggiuntivo di ben 5 milioni,per un totale di 87 milioni di dollari di lavorazione.

Pensate che il film è stato in fase di realizzazione fin dal 2013, e il nuovo design è stato portato avanti solo nell’ultimo anno!

Tuttavia il trailer uscito il 30 aprile di un anno fa  è stato così duramente attaccato dalla fan base, per le azzardate scelte di design, cosi pervasivo e profondo, che ha costretto il regista a tornare alle fase di pre produzione immediatamente. Il trailer su YouTube, è stato così un disastro da battere ogni record (negativo) di rapporto tra Like e Dislike, degli ultimi 3 anni, dell’intera piattaforma.

Con il secondo trailer con cui il registra riprova a conquistarsi l’amore del pubblico, riuscendo a vincere il pregiudizio e le preoccupazioni dei fan e riportando l’aspetto del porcospino azzurro a quello tanto amato del videogame.

Il film, spuntato nelle sale italiane lo scorso 13 febbraio, ed un giorno dopo in quelle Americane, ha ricevuto parecchi complimenti, sia per la performance del cast, che può avvalersi di un ritrovato Jim Carrey, ma anche della sua fedeltà al materiale originale. Gli effetti visivi, sono stati invece realizzati dalle compagnie di effetti speciali ILM, MPC, Blur Studio e Digital Domain. 

Inside Ilas