É a IA o Futuro de Hollywood?

William Osmon

Follow

Set 27, 2019 – 9 min ler

>

Foto Crédito –

Com grande…escala global filmes raking em milhares de milhões (Avengers Endgame feito 2.796 bilhões de dólares) na bilheteria, qualquer um com os meios tentaria o mesmo. Mas com os custos de produção de filmes blockbuster (Avengers Endgame orçou 356 milhões de dólares), apenas as empresas mais rentáveis podem se dar ao luxo de produzir sucessos tão monumentais. Mas e se mais pessoas com ideias criativas tivessem meios para produzir filmes de Hollywood a uma percentagem do custo? Através do poder da Inteligência Artificial, e uma mistura de outras tecnologias e técnicas, podemos estar à beira de uma revolução tecnológica diferente de qualquer outra até hoje.

Como poderia a IA influenciar a qualidade de uma cena?

O tempo de produção de filmes em larga escala varia, e o nível de detalhe varia devido à prioridade da cena, prioridade do filme, mudanças de última hora, e muitos outros fatores. O tempo é o principal fator na diferença entre imagens digitais incríveis de 4k que parecem cenas filmadas (Avatar de James Cameron) e coisas que não parecem tão grandes, como a cena de luta no Pantera Negra da Marvel, onde o protagonista e antagonista cuida de uma mina perto do final do filme. Uma IA seria capaz de compilar imagens complexas muito mais rapidamente do que qualquer um de nossos artistas mais talentosos.

Mas como funcionaria? E nós temos a tecnologia para fazê-lo acontecer?

Este artigo tenta responder a essas perguntas, discutindo algumas das tecnologias que temos atualmente e como ela pode ser usada para construir uma IA de Hollywood.

Reconhecimento facial

Crédito Fotográfico –

Já usamos o reconhecimento facial diariamente. A IA já é capaz de reconhecer rostos com bastante precisão. Um sistema de reconhecimento facial verifica a imagem de uma pessoa através da análise dos padrões presentes num rosto. Ao tomar estes pontos de dados e compará-los com um conjunto que inclui a forma como os rostos se movem em determinados contextos, como a fala ou a reacção emocional, um computador pode atribuir valores e manipular dados faciais para forçar um resultado. Estes resultados podem ser usados para fazer um movimento de boca digital para corresponder a certos dados. A IA usaria isso para construir quadros parados, um por um, do rosto de um personagem se movendo em direção a um determinado objetivo, tal como recitar uma determinada seqüência de fala. Isto pode ser ainda mais complexo com a adição do resto de uma cena, reacções a ambientes, reacções a outros personagens, ou circunstâncias. Encontrar os dados para treinar uma tal IA é provavelmente a parte mais fácil. Há muitos arquivos fonte para este tipo de dados que podem ser encontrados em imagens de captura de movimento. É claro que esta é uma explicação simplificada mas, no escopo deste post, não há diabo nestes detalhes.

Geração de mundo artificial e simulação

Outro ponto chave na busca para encontrar uma IA de construção de filme é a geração de mundo artificial e simulação. Um filme construído inteiramente por uma IA aconteceria em um mundo totalmente digital. Embora se pudesse inserir filmagens digitais que o computador pudesse manipular, isso não é tão legal quanto um mundo construído inteiramente livre da influência humana. Já temos esse tipo de tecnologia e ela é usada em videogames. Mundos gerados por procedimentos não são novidade e existem desde 1991 com o lançamento de Sid Meyer’s Civilization. A tecnologia processual avançou constantemente nas quase três décadas seguintes e atingiu um pico perceptível no Céu de Ninguém em 2016, onde mundos extraterrestres, flora e fauna são gerados de forma processual até duzentas e cinquenta e seis galáxias separadas. Mas o que isso significa para os filmes? Quando um roteiro especifica algo como “um mundo futurista distópico com filas de design do início do século 20”, as platéias não receberiam uma versão lembrada da cidade de Nova York, mas um mundo gerado por procedimentos que atrai influência da arquitetura do início do século 20. Esta seria uma mudança bem-vinda, para ter a certeza. Não mais o Resident Evil seria filmado em Toronto, mas em um Raccoon City gerado por procedimentos. A adição de locais variados e irreconhecíveis só pode adicionar à imersão do público.

Simuladores Físicos

>

>

>

>

>

>

>>

>

>

>

Foto Crédito – Pexels
>

Além de reagir ao nosso ambiente, estamos criando ambientes totalmente novos digitalmente. E a parte mais interessante é que os ambientes que criamos reagem a nós quase da mesma forma que o nosso ambiente natural reage. Estes ambientes, tipicamente usados em jogos de vídeo, modelam o mundo real em termos de texturas, iluminação e física. Com mais alguns anos ou talvez uma ou duas décadas de trabalho, a IA poderia ser usada para modelar os comportamentos de indivíduos e animais em grandes grupos para construir cidades e comportamentos em larga escala que espelham os nossos. Nvidia, uma das principais produtoras de tecnologia de computação gráfica, lançou seu simulador de PhysX para código aberto no ano passado. Por causa de decisões como esta, qualquer pessoa com o knowhow pode contribuir para a riqueza de conhecimento que temos atualmente e estamos expandindo em.

Deepfakes

Deepfakes são imagens e vídeos que utilizam a visão por computador e tecnologias similares para sobrepor faces e áudio para produzir algo novo. Vídeos que utilizam estas técnicas têm flutuado pela internet há algum tempo. Além dos potenciais riscos de segurança que podem ocorrer com o desenvolvimento desta tecnologia, os resultados até agora têm provado ser surpreendentes e divertidos. Já existe um precedente para o uso de técnicas Deepfake em filmes. Famosamente, Peter Cushing foi ressuscitado para retomar o papel de Tarkin no filme Star Wars Rogue One. E, num relance, a performance foi muito convincente. Misturar perfeitamente imagens digitais com o rosto de um artista vivo é bastante difícil. Quando uma versão mais jovem do Carrie Fisher foi necessária para retratar Leia Organa, também em Rogue One, os artistas misturaram imagens da falecida atriz com o Ingvild Delia vivo. As técnicas empregadas, embora notáveis, não são perfeitas. Qualquer pessoa que visse a cena poderia apontar que o que estava vendo não era, de fato, Carrie Fisher. Mas e se o Deepfake não foi feito por uma artista, mas sim por uma máquina? Seria melhor? Provavelmente. O que o mundo viu no Rogue One foi o trabalho de artistas de motion capture, mas e se a motion capture não fosse mais necessária?

Algoritmos comportamentais

Are outro ponto chave. Embora não imediatamente aparente como uma necessidade, estes tipos de algoritmos seriam necessários em qualquer cena que envolvesse grandes quantidades de pessoas ou animais. Pessoas e animais comportam-se de forma previsível em grandes grupos em resposta a certos estímulos. Por exemplo, se um filme envolvesse um ataque alienígena ou uma horda de mortos-vivos, o computador precisaria ser capaz de modelar o comportamento do grupo para produzir uma cena precisa. Ao usar dados como este, cenários mais maciços poderiam ser criados e analisados através da extrapolação de pontos, e um filme desportivaria reações humanas naturais a ameaças, levando a uma cena muito mais convincente e aterrorizante.

Cenários Digitais de Celebridades

Foto Crédito – Unsplash

Uma das perspectivas mais excitantes desta tecnologia potencial é a possibilidade adicional de personalidades geradas por computador com base nas de celebridades do passado. Há muitas estrelas do palco e da tela que já passaram, mas são lembradas com carinho por seus talentos excepcionais. A capacidade de incluir essas personalidades em filmes futuros pode não ser produto de magia ou ficção científica no futuro próximo. Ao analisar padrões, as máquinas poderiam modelar o comportamento dos personagens e reproduzir um modelo preciso. Embora isto possa não ser eticamente kosher, já há precedentes para este tipo de tecnologia nos filmes agora. Claro que isto não se limita a ressuscitar artistas, mas o mesmo tipo de tecnologia poderia ser aplicado a actores/actrizes contemporâneos para reimaginar os seus personagens como uma idade ou espécie diferente. Isto teria o benefício adicional de os artistas não precisarem de usar próteses desconfortáveis ou sofrer alterações corporais para desempenharem um determinado papel.

Microsoft text to image

Embora na sua infância, actualmente, a Microsoft desenvolveu uma tecnologia que gera imagens a partir de texto. Os usuários podem inserir uma descrição simples e o programa irá gerar uma imagem com base nela. De perto, ela não é fantasticamente detalhada. Embora, à distância, a imagem é surpreendentemente precisa. Pode-se facilmente imaginar como estes tipos de imagens se tornarão claros no futuro. Com uma versão mais avançada disto, um usuário poderia inserir dados muito mais detalhados e receber em troca uma imagem semelhante à vida. Combine todas essas imagens e você terá um segmento de filme.

Speech Translation – Movies Produced Naturally in Other Languages

Lançamentos globais como Star Wars e os filmes Marvel usam equipes de voz sobre os atores para interpretar as linhas dos personagens para que os falantes de outros idiomas que não o inglês possam ver o filme também. Mas os filmes dublados e legendados não podem carregar o nível de imersão que os filmes em língua nativa podem, isso é óbvio. Os humanos estão ligados para ver a fala e ouvi-la, é parte de como aprendemos a falar quando crianças. Quando ouvimos a fala gravada, como num filme, esperamos naturalmente que o que vemos (a boca dos actores) reflicta o áudio. Nos filmes dublados este não é o caso. No entanto, ao combinarmos tecnologias, podemos encontrar uma solução para este problema. Ao pegarmos em elementos de algoritmos Deepfake e misturá-los com serviços como a tradução de voz da Microsoft, podemos ser capazes de criar um programa que traduz automaticamente a fala do intérprete com o bônus adicional de ter articulações do trato vocal próximas à vida, sobre as quais podemos banquetear nossos olhos sempre críticos.

Estilos de director de modelação

Tanta coisa num filme depende do director. O diretor é a primeira linha de defesa que temos entre uma terrível perda de tempo e uma obra-prima artística. Os realizadores, tal como os actores em filmes, também são pessoas, e como todas as pessoas não duram para sempre. E, como atores, cada diretor traz todo um conjunto de dados de técnicas avançadas de filmagem, inovação e práticas que podem ser analisadas por máquinas para serem fielmente reproduzidas. Com técnicas como esta, o mundo poderia ver o filme Napoleão que Stanley Kubrick nunca fez.

AI Movies may be More Accurate Than “real-life” Movies

Photo Credit – Unsplash

Um dos fatores mais interessantes neste tópico é o hiper-realismo. Uma IA interage com a matemática. Ela não tem olhos, ouvidos, nem emoções humanas. Ela lida com números e padrões. É o produto destas operações que são os aspectos mais intrigantes da Inteligência Artificial. O filme, Interstellar, mostrou ao público o produto de avançados algoritmos computacionais trabalhando em conjunto com efeitos visuais para produzir uma imagem deslumbrante de um buraco negro. O buraco negro no Interstellar foi mostrado pela primeira vez ao público em 2014. Nós não sabíamos como eles realmente eram até abril de 2019. A imagem produzida por um computador é surpreendentemente parecida com a foto real. Ao alimentar cenários em uma IA em movimento, podemos muito bem ver com nossos próprios olhos o que a ciência avançada está correndo para descobrir.

O que significa para a educação

As vantagens da educação são sem precedentes com este tipo de tecnologia. Os filmes históricos são apenas isso, históricos. Embora muito trabalho tenha sido feito para colorir fotos antigas, o processo é muito demorado e caro. As fotos dizem 1000 palavras, mas e se essas fotos pudessem falar. Por exemplo, o Lincoln’s Gettysburg Address foi entregue antes do advento da tecnologia de gravação e foi perdido no tempo. Mas eventos tão historicamente significativos como este poderiam ser reconstruídos digitalmente usando tecnologias avançadas. Sabemos como Lincoln era, como ele falava e como pensava através de testemunhos dados por seus contemporâneos. Alimentando essa informação em um programa, uma nova versão digital do 16o presidente americano poderia ser construída para educar a juventude sobre temas contemporâneos de um dos períodos mais voláteis da história americana. O discurso de Gettysburg é apenas um pequeno exemplo do que poderia ser alcançado.

Conclusão

Esta visão geral discutiu o potencial do uso de IA na construção de filmes. Podemos usar o Machine Learning e o reconhecimento de padrões para reformular completamente os filmes, tv e educação. Ao combinar aspectos de tecnologias e técnicas que empregamos atualmente, um processo totalmente novo de produção de filmes irá irromper e mudar o mundo da mídia para sempre. Deepfakes, reconhecimento de fala, processamento de linguagem e algoritmos comportamentais, todos desempenham um papel no futuro do filme e da tv. O futuro é promissor, mas precisamos trabalhar juntos para garantir que seja tratado com responsabilidade.

Se algum dos pontos anteriores não o convenceu da importância desta tecnologia agora e será muito em breve, tenha em mente… Pode ser usado para refazer o Jogo dos Tronos temporada 8.

Obrigado pela leitura!

Deixe um comentário