Con i film globali su larga scalafilm globali su larga scala che rastrellano miliardi (Avengers Endgame ha fatto 2.796 miliardi di dollari) al botteghino, chiunque abbia i mezzi potrebbe provare lo stesso. Ma con i costi di produzione dei film blockbuster (Avengers Endgame ha un budget di 356 milioni di dollari), solo le aziende più redditizie possono permettersi di produrre questi successi monumentali. Ma cosa succederebbe se più persone con idee creative avessero i mezzi per produrre film di Hollywood a una percentuale del costo? Attraverso il potere dell’intelligenza artificiale, e un mix di altre tecnologie e tecniche, potremmo essere sull’orlo di una rivoluzione tecnologica diversa da qualsiasi altra fino ad oggi.
Come potrebbe l’AI influenzare la qualità di una scena?
Il tempo di produzione dei film su larga scala varia, e il livello di dettaglio varia a causa della priorità della scena, della priorità del film, dei cambiamenti dell’ultimo minuto e di molti altri fattori. Il tempo è il fattore principale nella differenza tra immagini digitali 4k mozzafiato che sembrano scene filmate (Avatar di James Cameron) e cose che non sembrano tutte così grandi, come la scena di combattimento in Black Panther della Marvel dove il protagonista e l’antagonista sbattono contro una miniera verso la fine del film. Un’IA sarebbe in grado di compilare immagini complesse molto più velocemente di qualsiasi dei nostri artisti più talentuosi.
Ma come funzionerebbe? E abbiamo la tecnologia per farlo accadere?
Questo articolo cerca di rispondere a queste domande discutendo alcune delle tecnologie che abbiamo attualmente e come possono essere utilizzate per costruire una IA di Hollywood.
Riconoscimento facciale
Usiamo già il riconoscimento facciale su base giornaliera. L’IA è già in grado di riconoscere i volti in modo abbastanza accurato. Un sistema di riconoscimento facciale verifica l’immagine di una persona analizzando i modelli presenti su un volto. Prendendo questi punti di dati e confrontandoli con un insieme che include come i volti si muovono in determinati contesti, come il discorso o la reazione emotiva, un computer può assegnare valori e manipolare i dati facciali per forzare un risultato. Questi risultati possono essere utilizzati per far muovere una bocca digitale in modo che corrisponda a certi dati. L’IA userebbe questo per costruire fotogrammi, uno per uno, del volto di un personaggio che si muove verso un certo obiettivo, come recitare una data stringa di discorso. Questo può essere reso ancora più complesso con l’aggiunta del resto di una scena, reazioni agli ambienti, reazioni ad altri personaggi o circostanze. Trovare i dati per addestrare una tale IA è probabilmente la parte più facile. Ci sono molti file sorgente per questo tipo di dati che possono essere trovati nei filmati di motion capture. Naturalmente questa è una spiegazione troppo semplificata ma, nello scopo di questo post, non c’è il diavolo in questi dettagli.
Generazione e simulazione di mondi artificiali
Un altro punto chiave nella ricerca di un’IA che costruisca film è la generazione e simulazione di mondi artificiali. Un film costruito interamente da un’IA si svolgerebbe in un mondo completamente digitale. Anche se si potrebbero inserire filmati digitali che il computer potrebbe manipolare, questo non è così bello come un mondo costruito interamente libero dall’influenza umana. Abbiamo già questo tipo di tecnologia ed è usata nei videogiochi. I mondi generati proceduralmente non sono una novità e sono stati in giro in qualche forma dal 1991 con l’uscita di Civilization di Sid Meyer. La tecnologia procedurale è progredita costantemente nei quasi tre decenni successivi e ha raggiunto un picco percepibile in No Man’s Sky del 2016, dove mondi extraterrestri, flora e fauna sono generati proceduralmente fino a duecentocinquantasei galassie separate. Ma cosa significa questo per i film? Quando una sceneggiatura specifica qualcosa come “un mondo futuristico distopico con code di design dell’inizio del XX secolo” il pubblico non otterrebbe una versione ricolorata di New York City, ma un mondo generato proceduralmente che trae influenza dall’architettura dell’inizio del XX secolo. Questo sarebbe un cambiamento gradito per essere sicuri. Non più Resident Evil sarebbe stato girato a Toronto, ma in una Raccoon City generata proceduralmente. L’aggiunta di luoghi variabili e irriconoscibili non può che aumentare l’immersione del pubblico.