Inacreditável: inteligência artificial aprendeu a fazer vídeos usando apenas uma foto
Com a inteligência artificial avançando rapidamente, é de se esperar que coisas incríveis e assustadoras surjam a todo tempo, e uma das mais sensacionais acaba de ser revelada: vídeos falsos agora podem ser feitos a partir de uma só imagem. Normalmente, os softwares utilizados para criar deepfakes – nome dado a vídeos falsos que fazem as pessoas parecerem fazer ou dizer coisas que nunca fizeram ou disseram – geralmente precisam de um grande volume de dados de imagens para criar uma falsificação realista, mas um novo sistema da Samsung é capaz de gerar um vídeo falso com apenas uma foto. Um laboratório de inteligência artificial da da empresa na Rússia desenvolveu a tecnologia, que foi detalhada em um artigo no início desta semana.
Inteligência artificial aprendeu a fazer uma das coisas mais humanas que existem
Embora possa ser usada para diversão, como dar vida a um retrato clássico, como a Mona Lisa, há um lado negativo: esses tipos de técnicas e seu rápido desenvolvimento também criam riscos de desinformação, adulteração de senhas e fraude, de acordo com Hany Farid, pesquisador da Faculdade de Dartmouth, nos EUA, especializado em análise forense para erradicar deepfakes, em entrevista ao portal CNet.
“Esta e outras técnicas relacionadas exigem cada vez menos dados e estão gerando um conteúdo cada vez mais sofisticado e atraente. Mesmo que o processo da Samsung possa criar falhas visuais, estes resultados são outro passo na evolução das técnicas, levando à criação de conteúdo multimídia que eventualmente será indistinguível da coisa real”, argumenta.
O texto do CNet cita um vídeo rudemente adulterado da presidente da Câmara dos EUA, Nancy Pelosi, que se tornou viral nas redes sociais para justificar “a preocupação de que a sofisticação tornaria o engano em massa mais fácil, já que deepfakes seriam mais difíceis de desmascarar”.
Máquinas que aprendem
Deepfakes produzem falsificações usando o aprendizado de máquina para fabricar de forma convincente um humano que fala e se movimenta. Embora a manipulação de vídeo por computador tenha existido por décadas, os sistemas deepfake tornaram os vídeos manipulados não apenas mais fáceis de criar, mas também mais difíceis de detectar.
A tecnologia tornou possível um gênero inteiro de memes, incluindo um em que o rosto de Nicolas Cage é colocado em filmes e programas de TV em que ele não estava. Mas a tecnologia deepfake também pode ser usada em casos de mentiras ou abusos, como quando é usada para enxertar o rosto de uma pessoa desavisada em filmes adultos explícitos, uma técnica usada às vezes em pornografia de vingança.
Criadores da inteligência artificial não sabem por que ela toma suas decisões
Em seu artigo, o laboratório de inteligência artificial da Samsung apelidou suas criações de “realistic neural talking heads” (algo como cabeças falantes neurais realistas). O termo “talking heads” refere-se ao gênero de vídeo que o sistema pode criar; é semelhante às caixas de vídeo dos especialistas que você vê nos noticiários da TV. A palavra “neural” faz referência às redes neurais, um tipo de aprendizado de máquina que imita o cérebro humano.
Os pesquisadores acreditam que seu avanço pode ser usado em uma série de aplicações, incluindo videogames, filmes e TV. “Essa capacidade tem aplicações práticas para telepresença, incluindo videoconferência e jogos multi-player, bem como a indústria de efeitos especiais”, escreveram eles.
Preparação
Normalmente, um vídeo como estes exige que você treine um sistema de inteligência artificial com um grande conjunto de dados de imagens de uma única pessoa. Como muitas fotos de um indivíduo eram necessárias, os alvos costumavam ser figuras públicas, como celebridades e políticos.
O sistema da Samsung usa um truque baseado na preparação. O sistema começa assistindo a muitos vídeos para aprender como os rostos humanos se movem. Em seguida, aplica-se o que é aprendido a um único ou um pequeno punhado de fotos para produzir um clipe de vídeo razoavelmente realista. O vídeo abaixo (com legendas em português) mostra como funciona o processo:
Ao contrário de um verdadeiro vídeo deepfake, os resultados de uma única ou um pequeno número de imagens acabam mostrando pequenas falhas. Por exemplo, a Marilyn Monroe no vídeo de demonstração do laboratório da Samsung perdeu a famosa marca na pele que a verdadeira Marilyn tinha no rosto. Os vídeos da Samsung tendem a reter alguma semelhança de quem fez o papel do boneco digital, de acordo com Siwei Lyu, professor de ciência da computação da Universidade de Albany, em Nova York, especializado em mídia forense e aprendizado de máquina. É por isso que cada um dos rostos da Mona Lisa parecem uma pessoa ligeiramente diferente.
Essas pessoas não existem: Site exibe rostos perfeitos gerados por inteligência artificial
Geralmente, um sistema deepfake visa eliminar essas pequenas falhas visuais. Isso requer quantidades significativas de dados de treinamento para o vídeo de entrada e a pessoa-alvo.
O aspecto único desta abordagem é útil porque significa que uma grande rede pode ser treinada num grande número de vídeos, o que é a parte que demora muito tempo. Este tipo de sistema pode então rapidamente se adaptar a uma nova pessoa-alvo usando apenas algumas imagens sem um extenso treinamento, disse Lyu ao CNet. “Isso economiza tempo em conceito e torna o modelo generalizável.”
Precauções
O rápido avanço da inteligência artificial significa que sempre que um pesquisador compartilha um avanço na criação de deepfakes, pessoas mal intencionadas podem começar a juntar suas próprias ferramentas para imitá-lo. As técnicas da Samsung provavelmente chegarão às mãos de outras pessoas em pouco tempo, portanto é preciso que governos, empresas e o público estejam atentos para falsificações ainda mais realistas.
Em setembro de 2018, a chefe de operações do Facebook, Sheryl Sandberg, anunciou que havia criado um modelo de aprendizado de máquina para detectar fotos ou vídeos potencialmente falsos, a fim de remover conteúdos deepfake de suas plataformas.
No mesmo mês, parlamentares americanos enviaram uma carta ao Diretor de Inteligência Nacional mostrando suas preocupações com os vídeos falsos. “Você repetidamente alertou sobre campanhas de desinformação em nossas eleições e outros esforços para exacerbar as divisões políticas e sociais em nossa sociedade para enfraquecer nossa nação. Estamos profundamente preocupados que a tecnologia deepfake possa em breve ser implantada por atores estrangeiros maliciosos”. [ZD Net, CNet, Science Alert]