¿Es la IA el futuro de Hollywood?

William Osmon

Sigue

Sep 27, 2019 – 9 min read

.

Crédito fotográfico –

Con películas de granpelículas globales a gran escala que recaudan miles de millones (Avengers Endgame hizo 2.796.000 millones de dólares) en la taquilla, cualquiera con los medios necesarios intentaría hacer lo mismo. Pero con los costes de producción de las películas más taquilleras (el presupuesto de Avengers Endgame es de 356 millones de dólares), solo las empresas más rentables pueden permitirse producir estos éxitos monumentales. Pero, ¿qué pasaría si más personas con ideas creativas tuvieran los medios para producir películas de Hollywood a un porcentaje del coste? Gracias al poder de la Inteligencia Artificial, y a una mezcla de otras tecnologías y técnicas, puede que estemos al borde de una revolución tecnológica como ninguna otra hasta la fecha.

¿Cómo podría influir la IA en la calidad de una escena?

El tiempo de producción de las películas a gran escala varía, y el nivel de detalle varía debido a la prioridad de la escena, la prioridad de la película, los cambios de última hora y muchos otros factores. El tiempo es el principal factor de diferencia entre las impresionantes imágenes digitales en 4k que parecen escenas filmadas (Avatar de James Cameron) y las cosas que no se ven del todo bien, como la escena de lucha de Pantera Negra de Marvel en la que el protagonista y el antagonista se precipitan contra una mina casi al final de la película. Una IA sería capaz de compilar imágenes complejas mucho más rápido que cualquiera de nuestros artistas con más talento.

¿Pero cómo funcionaría? Y ¿tenemos la tecnología para hacerlo realidad?

Este artículo intenta responder a esas preguntas hablando de parte de la tecnología que tenemos actualmente y de cómo puede utilizarse para construir una IA de Hollywood.

Reconocimiento facial

Crédito de la foto –

Ya utilizamos el reconocimiento facial a diario. La IA ya es capaz de reconocer rostros con bastante precisión. Un sistema de reconocimiento facial verifica la imagen de una persona analizando los patrones presentes en un rostro. Al tomar estos puntos de datos y compararlos con un conjunto que incluye cómo se mueven los rostros en determinados contextos, como el habla o la reacción emocional, un ordenador puede asignar valores y manipular los datos faciales para forzar un resultado. Estos resultados pueden utilizarse para hacer que una boca digital se mueva de acuerdo con determinados datos. La IA utilizaría esto para construir fotogramas, uno por uno, de la cara de un personaje moviéndose hacia un determinado objetivo, como recitar una determinada cadena de discurso. Esto puede hacerse aún más complejo añadiendo el resto de una escena, las reacciones al entorno, las reacciones a otros personajes o las circunstancias. Encontrar los datos para entrenar una IA de este tipo es probablemente la parte más fácil. Hay muchos archivos fuente de este tipo de datos que se pueden encontrar en las secuencias de captura de movimiento. Por supuesto, esta es una explicación demasiado simplificada pero, en el ámbito de este post, no hay diablo en estos detalles.

Generación y simulación de mundos artificiales

Otro punto clave en la búsqueda de una IA para construir películas es la generación y simulación de mundos artificiales. Una película construida enteramente por una IA tendría lugar en un mundo totalmente digital. Aunque se podría insertar metraje digital que el ordenador pudiera manipular, eso no es ni de lejos tan genial como un mundo construido completamente libre de influencia humana. Ya tenemos este tipo de tecnología y se utiliza en los videojuegos. Los mundos generados procedimentalmente no son nada nuevo y llevan existiendo de alguna forma desde 1991, con el lanzamiento de Sid Meyer’s Civilization. La tecnología procedimental ha avanzado constantemente en las casi tres décadas transcurridas desde entonces y ha alcanzado un pico perceptible en No Man’s Sky, de 2016, donde los mundos extraterrestres, la flora y la fauna se generan procedimentalmente hasta en doscientas cincuenta y seis galaxias distintas. Pero, ¿qué significa esto para las películas? Cuando un guión especifica algo así como «un mundo distópico futurista con rasgos de diseño de principios del siglo XX», el público no obtendría una versión recoloreada de la ciudad de Nueva York, sino un mundo generado procedimentalmente que se inspira en la arquitectura de principios del siglo XX. Este sería un cambio bienvenido, sin duda. Resident Evil ya no se rodaría en Toronto, sino en una Raccoon City generada procedimentalmente. La adición de localizaciones variadas e irreconocibles solo puede contribuir a la inmersión del público.

Simuladores de Física

Crédito de la foto – Pexels

Además de reaccionar a nuestro entorno, estamos creando entornos completamente nuevos de forma digital. Y lo más interesante es que los entornos que creamos reaccionan ante nosotros casi de la misma manera que lo hace el nuestro natural. Estos entornos, utilizados habitualmente en los videojuegos, modelan el mundo real en términos de texturas, iluminación y física. Con unos pocos años más o quizás una década o dos de trabajo, la IA podría utilizarse para modelar los comportamientos de los individuos y los animales en grandes grupos para construir ciudades y comportamientos a gran escala que reflejen los nuestros. Nvidia, uno de los principales productores de tecnología de gráficos por ordenador, publicó el año pasado su simulador PhysX en código abierto. Gracias a decisiones como ésta, cualquiera que tenga los conocimientos necesarios puede contribuir a la riqueza de conocimientos que tenemos actualmente y que estamos ampliando.

Deepfakes

Los deepfakes son imágenes y vídeos que utilizan la visión por ordenador y tecnologías similares para superponer caras y audio y producir algo nuevo. Los vídeos que utilizan estas técnicas llevan tiempo circulando por Internet. Aparte de los posibles riesgos de seguridad que pueden surgir a medida que se desarrolla esta tecnología, los resultados hasta ahora han demostrado ser sorprendentes y divertidos. Ya hay un precedente del uso de técnicas de Deepfake en el cine. Como es sabido, Peter Cushing fue resucitado para repetir el papel de Tarkin en Star Wars Rogue One. Y, a simple vista, la interpretación fue muy convincente. Mezclar perfectamente las imágenes digitales con el rostro de un intérprete vivo es bastante difícil. Cuando se necesitó una versión más joven de Carrie Fisher para representar a Leia Organa, también en Rogue One, los artistas mezclaron imágenes de la difunta actriz con la viva Ingvild Delia. Las técnicas empleadas, aunque notables, no son perfectas. Cualquier persona que viera la escena sería capaz de señalar que lo que estaba viendo no era en realidad Carrie Fisher. ¿Pero qué pasaría si el Deepfake no lo hiciera un artista, sino una máquina? ¿Sería mejor? Probablemente. Lo que el mundo vio en Rogue One fue obra de artistas de captura de movimiento, pero ¿qué pasaría si la captura de movimiento ya no fuera necesaria?

Los algoritmos de comportamiento

Son otro punto clave. Aunque no se vea inmediatamente como una necesidad, este tipo de algoritmos serían necesarios en cualquier escena en la que haya gran cantidad de personas o animales. Las personas y los animales se comportan de forma predecible en grandes grupos en respuesta a determinados estímulos. Por ejemplo, si una película incluyera un ataque alienígena o una horda de muertos vivientes, el ordenador tendría que ser capaz de modelar el comportamiento del grupo para producir una escena precisa. Al utilizar datos como estos, se podrían crear y analizar escenarios más masivos a través de la extrapolación de puntos, y una película podría reflejar las reacciones humanas naturales ante las amenazas, lo que daría lugar a una escena mucho más convincente y aterradora.

Personajes digitales a partir de la imagen de los famosos

Crédito de la foto – Unsplash

Una de las perspectivas más emocionantes de esta tecnología potencial es la posibilidad añadida de personalidades generadas por ordenador basadas en las de famosos del pasado. Hay muchas estrellas de la escena y la pantalla que han fallecido pero que se recuerdan con cariño por su excepcional talento. La posibilidad de incluir estos personajes en futuras películas podría no ser producto de la magia o la ciencia ficción en un futuro próximo. Al analizar los patrones, las máquinas podrían modelar el comportamiento de los personajes y reproducir un modelo preciso. Aunque esto puede no ser éticamente kosher, ya hay precedentes de este tipo de tecnología en las películas actuales. Por supuesto, esto no se limita a la resurrección de intérpretes, sino que el mismo tipo de tecnología podría aplicarse a actores/actrices contemporáneos para reimaginar sus personajes como una edad o especie diferente. Esto tendría la ventaja añadida de que los intérpretes no tendrían que llevar incómodas prótesis o someterse a cambios corporales para interpretar un determinado papel.

Microsoft text to image

Aunque en sus inicios, actualmente, Microsoft ha desarrollado una tecnología que genera imágenes a partir de texto. Los usuarios pueden introducir una simple descripción y el programa generará una imagen basada en ella. De cerca, no es fantásticamente detallada. Sin embargo, desde la distancia, la imagen es sorprendentemente precisa. Es fácil imaginar lo claras que serán este tipo de imágenes en el futuro. Con una versión más avanzada, el usuario podría introducir datos mucho más detallados y recibir a cambio una imagen real. Si se combinan todas estas imágenes, se obtiene un segmento de película.

Traducción de voz: películas producidas de forma natural en otros idiomas

Los estrenos mundiales, como La guerra de las galaxias y las películas de Marvel, utilizan equipos de actores de doblaje para interpretar las líneas de los personajes, de modo que los hablantes de idiomas distintos al inglés también puedan ver la película. Pero las películas dobladas y subtituladas no pueden tener el nivel de inmersión que tienen las películas en lengua materna, eso es obvio. Los seres humanos estamos acostumbrados a ver el habla y a oírla, ya que aprendemos a hablar cuando somos niños. Cuando oímos un discurso grabado, como en una película, esperamos naturalmente que lo que vemos (la boca de los actores) refleje el audio. En las películas dobladas no es así. Sin embargo, al combinar las tecnologías, podemos encontrar una solución a este problema. Tomando elementos de los algoritmos de Deepfake y mezclándolos con servicios como el Speech Translation de Microsoft, podríamos crear un programa que traduzca automáticamente el habla de los intérpretes con la ventaja añadida de tener articulaciones del tracto vocal cercanas a la realidad sobre las que podemos deleitar nuestros ojos siempre críticos.

Modelando los estilos del director

Tanto en una película depende del director. El director es la primera línea de defensa que tenemos entre una terrible pérdida de tiempo y una obra maestra artística. Los directores, como los intérpretes en las películas, también son personas, y como todas las personas no duran para siempre. Y al igual que los actores, cada director aporta todo un conjunto de datos de técnicas avanzadas de filmación, innovación y prácticas que pueden ser analizadas por máquinas para ser reproducidas fielmente. Con técnicas como ésta, el mundo podría ver la película de Napoleón que Stanley Kubrick nunca hizo.

Las películas de la IA podrían ser más precisas que las de la «vida real»

Crédito de la foto – Unsplash

Uno de los factores más interesantes en este tema es el del hiperrealismo. Una IA interactúa con las matemáticas. No tiene ojos, oídos ni emociones humanas. Trata con números y patrones. El producto de estas operaciones es lo más intrigante de la Inteligencia Artificial. La película Interstellar mostró al público el producto de avanzados algoritmos computacionales trabajando en conjunto con los efectos visuales para producir una impresionante imagen de un agujero negro. El agujero negro de Interstellar se mostró por primera vez al público en 2014. No supimos su aspecto real hasta abril de 2019. La imagen producida por un ordenador es sorprendentemente similar a la foto real. Al alimentar escenarios en una IA que hace movimientos, es muy posible que acabemos de ver con nuestros propios ojos lo que la ciencia avanzada se apresura a descubrir.

Lo que significa para la educación

Las bondades para la educación no tienen precedentes con este tipo de tecnología. Las películas históricas son sólo eso, históricas. Aunque se ha hecho mucho trabajo coloreando fotos antiguas, el proceso es muy largo y costoso. Las imágenes dicen 1.000 palabras, pero ¿qué pasaría si esas imágenes pudieran hablar? Por ejemplo, el discurso de Lincoln en Gettysburg se pronunció antes de la llegada de la tecnología de grabación y se ha perdido en el tiempo. Pero acontecimientos de tanta importancia histórica podrían reconstruirse digitalmente mediante tecnologías avanzadas. Sabemos cómo era Lincoln, cómo hablaba y cómo pensaba gracias a los testimonios de sus contemporáneos. Introduciendo esta información en un programa, se podría construir una nueva versión digital del decimosexto presidente de Estados Unidos para educar a los jóvenes en temas contemporáneos a uno de los periodos más volátiles de la historia estadounidense. El Discurso de Gettysburg es sólo un pequeño ejemplo de lo que podría lograrse.

Conclusión

En este resumen se ha hablado del potencial de utilizar la IA para construir películas. Podemos utilizar el aprendizaje automático y el reconocimiento de patrones para renovar completamente las películas, la televisión y la educación. Combinando aspectos de las tecnologías y técnicas que empleamos actualmente, surgirá un proceso completamente nuevo de creación de películas que cambiará el mundo de los medios de comunicación para siempre. Las falsificaciones profundas, el reconocimiento del habla, el procesamiento del lenguaje y los algoritmos de comportamiento desempeñan un papel en el futuro del cine y la televisión. El futuro es prometedor, pero tenemos que trabajar juntos para asegurarnos de que se maneja de forma responsable.

Si alguno de los puntos anteriores no te ha convencido de lo importante que es esta tecnología ahora y que lo será muy pronto, ten en cuenta que… podría utilizarse para rehacer la octava temporada de Juego de Tronos.

¡Gracias por leer!

Deja un comentario