Deepfake (profundamente falsos), são imagens construídas com Inteligência artificial e altamente popularizadas a partir da disseminação do uso de aplicativos disponíveis na internet, como o extinto Zao, em 2018. Este aplicativo chinês usava imagens biométricas armazenadas dos seus usuários para este fim. O aplicativo foi banido e revogado pelas políticas de privacidade chinesa, mas a técnica se popularizou para usos domésticos, artísticos etc. (BEIGUELMAN, 2020, p. 52). Segundo a pesquisadora, o termo apareceu primeiramente em 2017 no Reddit, uma rede social de discussões temáticas, em um grupo sobre o uso de tecnologias de aprendizagem de máquina. O deepfake foi usado por usuário para explicar a técnica de misturar imagens selecionadas por algoritmos para, por exemplo, substituir os rostos de atrizes pornôs pelos de celebridades, em um jogo de exploração do corpo feminino.
Os procedimentos tecnológicos da imagem deepfake se assemelham ao “depth image”. Nessas imagens, a produção de uma superfície bidimensional de uma fotografia é composta por metadados referentes a diferentes aspectos da imagem, extraídos de banco de dados de corpos humanos, gerados por não-humanos: os robôs das inteligências artificiais. O processo de construção de uma imagem não é mais linear pois a imagem final é uma reinterpretação algorítmica, uma junção dos feedbacks constantes que a máquina gera (visão computacional), no qual ela vai aprimorando a interpretação do que é lido.
Segundo Hito Steyerl (2014), 50% do que é produzido por smartphones é considerado “noise” (sujeira) pelos mecanismos de interpretação de imagens devido ao tamanho pequeno e à qualidade ótica empobrecida. Essa operação de “limpeza dos ruídos” é baseada em outras imagens similares que estão na memória da câmera. Esse processo encadeia o “feedback loop”, sistema de interpretação de imagens que caracteriza os processos de aprendizagem profunda da visão computacional, possibilitando, assim, a construção de imagens completamente construídas. São os verdadeiros Frankenstein do século 21, segundo a pesquisadora e curadora Yael Van Essen (2020). Esta imagem já vem com padrões algoritmos pré-estabelecidos, tornando-a um objeto de recontextualização constante.
Gabriel Menotti (2019) aponta o perigo a respeito dos apagamentos e invisibilidades produzidos pelas imagens deepfake, pois a classificação de imagens sem a interferência humana não é neutra. Essas políticas da imagem deepfake também são tratadas por Beiguelman (2021, p.144) ao comentar o boom de aplicativos que utilizam dessas tecnologias para tratar de imagens que remetem à memória e a nostalgia, criando realidades e passados inventados pelo usuário do aplicativo, como o Deep Nostalgia, lançado em 2021.
A realidade de suas aplicações demonstra que não há um viés de percepção e linguagem e a seleção desses componentes de corpos humanos podem estar reproduzindo misoginia e racismo estrutural, o que deixa aparente que a interpretação da máquina depende do seu treinamento, feito por humanos. Ver imagem interpretada.