>
>
>
>
>
>
>
>Foto Crédito – Pexels>
Além de reagir ao nosso ambiente, estamos criando ambientes totalmente novos digitalmente. E a parte mais interessante é que os ambientes que criamos reagem a nós quase da mesma forma que o nosso ambiente natural reage. Estes ambientes, tipicamente usados em jogos de vídeo, modelam o mundo real em termos de texturas, iluminação e física. Com mais alguns anos ou talvez uma ou duas décadas de trabalho, a IA poderia ser usada para modelar os comportamentos de indivíduos e animais em grandes grupos para construir cidades e comportamentos em larga escala que espelham os nossos. Nvidia, uma das principais produtoras de tecnologia de computação gráfica, lançou seu simulador de PhysX para código aberto no ano passado. Por causa de decisões como esta, qualquer pessoa com o knowhow pode contribuir para a riqueza de conhecimento que temos atualmente e estamos expandindo em.
Deepfakes
Deepfakes são imagens e vídeos que utilizam a visão por computador e tecnologias similares para sobrepor faces e áudio para produzir algo novo. Vídeos que utilizam estas técnicas têm flutuado pela internet há algum tempo. Além dos potenciais riscos de segurança que podem ocorrer com o desenvolvimento desta tecnologia, os resultados até agora têm provado ser surpreendentes e divertidos. Já existe um precedente para o uso de técnicas Deepfake em filmes. Famosamente, Peter Cushing foi ressuscitado para retomar o papel de Tarkin no filme Star Wars Rogue One. E, num relance, a performance foi muito convincente. Misturar perfeitamente imagens digitais com o rosto de um artista vivo é bastante difícil. Quando uma versão mais jovem do Carrie Fisher foi necessária para retratar Leia Organa, também em Rogue One, os artistas misturaram imagens da falecida atriz com o Ingvild Delia vivo. As técnicas empregadas, embora notáveis, não são perfeitas. Qualquer pessoa que visse a cena poderia apontar que o que estava vendo não era, de fato, Carrie Fisher. Mas e se o Deepfake não foi feito por uma artista, mas sim por uma máquina? Seria melhor? Provavelmente. O que o mundo viu no Rogue One foi o trabalho de artistas de motion capture, mas e se a motion capture não fosse mais necessária?
Algoritmos comportamentais
Are outro ponto chave. Embora não imediatamente aparente como uma necessidade, estes tipos de algoritmos seriam necessários em qualquer cena que envolvesse grandes quantidades de pessoas ou animais. Pessoas e animais comportam-se de forma previsível em grandes grupos em resposta a certos estímulos. Por exemplo, se um filme envolvesse um ataque alienígena ou uma horda de mortos-vivos, o computador precisaria ser capaz de modelar o comportamento do grupo para produzir uma cena precisa. Ao usar dados como este, cenários mais maciços poderiam ser criados e analisados através da extrapolação de pontos, e um filme desportivaria reações humanas naturais a ameaças, levando a uma cena muito mais convincente e aterrorizante.
Cenários Digitais de Celebridades
Uma das perspectivas mais excitantes desta tecnologia potencial é a possibilidade adicional de personalidades geradas por computador com base nas de celebridades do passado. Há muitas estrelas do palco e da tela que já passaram, mas são lembradas com carinho por seus talentos excepcionais. A capacidade de incluir essas personalidades em filmes futuros pode não ser produto de magia ou ficção científica no futuro próximo. Ao analisar padrões, as máquinas poderiam modelar o comportamento dos personagens e reproduzir um modelo preciso. Embora isto possa não ser eticamente kosher, já há precedentes para este tipo de tecnologia nos filmes agora. Claro que isto não se limita a ressuscitar artistas, mas o mesmo tipo de tecnologia poderia ser aplicado a actores/actrizes contemporâneos para reimaginar os seus personagens como uma idade ou espécie diferente. Isto teria o benefício adicional de os artistas não precisarem de usar próteses desconfortáveis ou sofrer alterações corporais para desempenharem um determinado papel.
Microsoft text to image
Embora na sua infância, actualmente, a Microsoft desenvolveu uma tecnologia que gera imagens a partir de texto. Os usuários podem inserir uma descrição simples e o programa irá gerar uma imagem com base nela. De perto, ela não é fantasticamente detalhada. Embora, à distância, a imagem é surpreendentemente precisa. Pode-se facilmente imaginar como estes tipos de imagens se tornarão claros no futuro. Com uma versão mais avançada disto, um usuário poderia inserir dados muito mais detalhados e receber em troca uma imagem semelhante à vida. Combine todas essas imagens e você terá um segmento de filme.
Speech Translation – Movies Produced Naturally in Other Languages
Lançamentos globais como Star Wars e os filmes Marvel usam equipes de voz sobre os atores para interpretar as linhas dos personagens para que os falantes de outros idiomas que não o inglês possam ver o filme também. Mas os filmes dublados e legendados não podem carregar o nível de imersão que os filmes em língua nativa podem, isso é óbvio. Os humanos estão ligados para ver a fala e ouvi-la, é parte de como aprendemos a falar quando crianças. Quando ouvimos a fala gravada, como num filme, esperamos naturalmente que o que vemos (a boca dos actores) reflicta o áudio. Nos filmes dublados este não é o caso. No entanto, ao combinarmos tecnologias, podemos encontrar uma solução para este problema. Ao pegarmos em elementos de algoritmos Deepfake e misturá-los com serviços como a tradução de voz da Microsoft, podemos ser capazes de criar um programa que traduz automaticamente a fala do intérprete com o bônus adicional de ter articulações do trato vocal próximas à vida, sobre as quais podemos banquetear nossos olhos sempre críticos.
Estilos de director de modelação
Tanta coisa num filme depende do director. O diretor é a primeira linha de defesa que temos entre uma terrível perda de tempo e uma obra-prima artística. Os realizadores, tal como os actores em filmes, também são pessoas, e como todas as pessoas não duram para sempre. E, como atores, cada diretor traz todo um conjunto de dados de técnicas avançadas de filmagem, inovação e práticas que podem ser analisadas por máquinas para serem fielmente reproduzidas. Com técnicas como esta, o mundo poderia ver o filme Napoleão que Stanley Kubrick nunca fez.
AI Movies may be More Accurate Than “real-life” Movies
Um dos fatores mais interessantes neste tópico é o hiper-realismo. Uma IA interage com a matemática. Ela não tem olhos, ouvidos, nem emoções humanas. Ela lida com números e padrões. É o produto destas operações que são os aspectos mais intrigantes da Inteligência Artificial. O filme, Interstellar, mostrou ao público o produto de avançados algoritmos computacionais trabalhando em conjunto com efeitos visuais para produzir uma imagem deslumbrante de um buraco negro. O buraco negro no Interstellar foi mostrado pela primeira vez ao público em 2014. Nós não sabíamos como eles realmente eram até abril de 2019. A imagem produzida por um computador é surpreendentemente parecida com a foto real. Ao alimentar cenários em uma IA em movimento, podemos muito bem ver com nossos próprios olhos o que a ciência avançada está correndo para descobrir.
O que significa para a educação
As vantagens da educação são sem precedentes com este tipo de tecnologia. Os filmes históricos são apenas isso, históricos. Embora muito trabalho tenha sido feito para colorir fotos antigas, o processo é muito demorado e caro. As fotos dizem 1000 palavras, mas e se essas fotos pudessem falar. Por exemplo, o Lincoln’s Gettysburg Address foi entregue antes do advento da tecnologia de gravação e foi perdido no tempo. Mas eventos tão historicamente significativos como este poderiam ser reconstruídos digitalmente usando tecnologias avançadas. Sabemos como Lincoln era, como ele falava e como pensava através de testemunhos dados por seus contemporâneos. Alimentando essa informação em um programa, uma nova versão digital do 16o presidente americano poderia ser construída para educar a juventude sobre temas contemporâneos de um dos períodos mais voláteis da história americana. O discurso de Gettysburg é apenas um pequeno exemplo do que poderia ser alcançado.
Conclusão
Esta visão geral discutiu o potencial do uso de IA na construção de filmes. Podemos usar o Machine Learning e o reconhecimento de padrões para reformular completamente os filmes, tv e educação. Ao combinar aspectos de tecnologias e técnicas que empregamos atualmente, um processo totalmente novo de produção de filmes irá irromper e mudar o mundo da mídia para sempre. Deepfakes, reconhecimento de fala, processamento de linguagem e algoritmos comportamentais, todos desempenham um papel no futuro do filme e da tv. O futuro é promissor, mas precisamos trabalhar juntos para garantir que seja tratado com responsabilidade.
Se algum dos pontos anteriores não o convenceu da importância desta tecnologia agora e será muito em breve, tenha em mente… Pode ser usado para refazer o Jogo dos Tronos temporada 8.
Obrigado pela leitura!