Deepfakes e a Crise da Comunicação Digital

Deepfakes e a Crise da Comunicação Digital

Por Lucas Ferreira Lopes

Nos últimos anos, o avanço dos métodos de geração de conteúdo multimídia por inteligência artificial (IA) popularizou os deepfakes. Deepfakes são mídias falsas (vídeos, áudios ou imagens) criadas ou manipuladas por algoritmos capazes de imitar rostos, vozes e gestos de maneira realista (SHA et al., 2023). Essa tecnologia tem usos legítimos em áreas como entretenimento e educação. No cinema, por exemplo, deepfakes foram usados para rejuvenescer atores em filmes como Gemini Man (MURPHY et al., 2023). Na educação, ajudam a criar tutores virtuais personalizados, voltados a diferentes perfis de estudantes (ROE et al., 2024). 

Por outro lado, deepfakes representam um risco crescente quando usados para criar conteúdos maliciosos e enganosos: Imagine uma senhora com pouca instrução formal que conhece, numa plataforma digital, um homem que se apresenta como Elon Musk, CEO da Tesla. Após várias interações por vídeo, todas convincentes e em tempo real, ele a convence a fazer um depósito de 50 mil reais. Para ela, não havia motivos para desconfiar: as conversas foram naturais, os vídeos pareciam autênticos e a interação parecia totalmente real. Esse caso não é hipotético. Aconteceu na vida real, num golpe viabilizado por inteligência artificial generativa, conforme documentado em (SHARMA, 2024).

  
Golpe utilizando deeepfake de Elon Musk em videochamada.

Esse episódio deixa claro que o problema dos deepfakes vai muito além do aspecto técnico. Eles criam uma situação em que sinais importantes para a comunicação, como rostos, vozes e expressões, deixam de ser confiáveis para garantir uma interação verdadeira. 

Ronald Stamper (1993) desenvolveu uma teoria semiótica que explica como construímos e interpretamos significados por meio desses sinais (STAMPER, 1993). Quando eles são manipulados, a confiança na comunicação fica abalada, afetando tanto nossas relações sociais quanto processos importantes como a democracia e a credibilidade das notícias e mídias digitais.

Dessa forma, podemos enxergar o impacto dos deepfakes em diferentes camadas: No nível técnico, eles desafiam os sistemas de detecção e autenticação. No nível informal, fragilizam as interações sociais cotidianas. Já no nível formal, tensionam instituições, sistemas jurídicos e processos democráticos, corroendo os próprios fundamentos simbólicos que sustentam esses sistemas. A figura abaixo sumariza alguns dos principais desafios e riscos associados a cada nível.


Desafios e riscos associados aos deepfakes nos níveis técnico, formal e informal.

Ainda no caso da senhora vítima, como explicar que tudo não passou de um golpe viabilizado por um algoritmo de IA que aplicou a técnica de FaceSwap (troca de rostos) (ZHAO et al., 2023) em tempo real utilizando redes generativas adversariais (GANs) (BISHOP, 2024)?

Mais ainda, como apresentar como evidência o resultado de um detector de deepfake, cuja resposta geralmente é um score numérico de probabilidade, acompanhado de um mapa de calor gerado por Grad-CAM (SELVARAJU et al., 2017)? Para essa senhora, é provável que esses termos não signifiquem absolutamente nada. Honestamente, sequer fazem sentido para a maior parte das pessoas fora do meio técnico.

Neste sentido, é evidente que enfrentar os deepfakes exige mais do que algoritmos sofisticados de detecção. Qualquer solução que ignore a acessibilidade, a explicabilidade e a interação com o usuário está fadada a ser limitada, quando não ineficaz. Não basta detectar; é preciso comunicar e tornar o resultado compreensível para todos (WANG et al., 2024). Afinal, de que adianta um detector de conteúdo sintético se seus resultados não são entendidos por quem não domina os fundamentos da inteligência artificial? Esse é um problema de acessibilidade cognitiva e informacional que precisa ser enfrentado.

Tradicionalmente, pensamos em acessibilidade como recursos para pessoas com deficiência física, visual ou auditiva (WORLD WIDE WEB CONSORTIUM, 2025). No contexto dos deepfakes, é necessário ampliar essa visão para incluir acessibilidade cognitiva e tecnológica, garantindo que os sistemas de detecção sejam compreensíveis e utilizáveis por diferentes públicos, especialmente os não técnicos.

Superar esse desafio exige pensar desde o início em soluções inclusivas que considerem diferentes pessoas e seus variados níveis de conhecimento. Nesta perspectiva, princípios de Design Universal e Design Participativo seriam de grande ajuda para criar ferramentas que não só detectam deepfakes, mas explicam suas decisões de forma clara, transparente e acessível.

Uma proposta concreta nesse sentido é o TruthLens, desenvolvido pelo Google DeepMind (KUNDU et al., 2025). Ele combina detectores de deepfakes com grandes modelos de linguagem (como o ChatGPT) para gerar explicações em linguagem humana. Por exemplo, em vez de apresentar um score ou um mapa de calor, o sistema explica que “as sombras faciais estão inconsistentes com a iluminação” ou que “há distorções na região da boca indicativas de manipulação”. Esse tipo de abordagem aproxima o processo técnico da compreensão humana e torna o sistema muito mais acessível, tanto cognitiva quanto socialmente.

Iniciativas como esta indicam o caminho: não basta que os sistemas sejam precisos, eles precisam ser compreensíveis. Isso inclui explicações em linguagem natural, visualizações simplificadas e mensagens alinhadas ao modelo mental dos usuários.

A emergência dos deepfakes materializa um problema que vai muito além do técnico. O colapso de sinais como rostos e vozes, antes vistos como garantias de autenticidade, exige que repensemos como projetamos sistemas de detecção.

Ferramentas que funcionam como caixas fechadas, com scores e visualizações técnicas difíceis de entender, não são suficientes. Tornar esses sistemas acessíveis, explicáveis e centrados nas pessoas não é apenas uma boa prática de design, é um compromisso ético e social. A luta contra os deepfakes não será vencida apenas com algoritmos, mas com interfaces claras, processos de interação humanos e responsabilidade social.

Referências

BISHOP, Chris; BISHOP, Hugh. Deep learning: foundations and concepts. Springer Nature, 2024. Disponível em: https://doi.org/10.1007/978-3-031-45468-4.

KUNDU, Rohit; JIA, Shan; MOHANTY, Vishal; BALACHANDRAN, Athula; ROY-CHOWDHURY, Amit K. TruthLens: explainable deepfake detection for face manipulated and fully synthetic data. arXiv preprint arXiv:2503.15867, 2025.

MURPHY, Gillian; CHING, Didier; TWOMEY, John; LINEHAN, Conor. Face/off: changing the face of movies with deepfakes. PLoS ONE, v. 18, n. 7, p. e0287503, 2023.

ROE, Jasper; PERKINS, Mike. Deepfakes and higher education: A research agenda and scoping review of synthetic media. Journal of University Teaching and Learning Practice, v. 21, n. 10, p. 1–22, 2024.

SELVARAJU, Ramprasaath R. et al. Grad-CAM: Visual Explanations from Deep Networks via Gradient-Based Localization. In: IEEE International Conference on Computer Vision (ICCV), p. 618–626, 2017. Disponível em: https://doi.org/10.1109/ICCV.2017.74.

SHA, Tong; ZHANG, Wei; SHEN, Tong; LI, Zhoujun; MEI, Tao. Deep Person Generation: A Survey from the Perspective of Face, Pose and Cloth Synthesis. ACM Computing Surveys, v. 55, n. 12, p. 1–37, 2023. Disponível em: https://doi.org/10.1145/3575656. Também disponível em: https://arxiv.org/abs/2109.02081.

SHARMA, Shweta. South Korean Woman Loses £40k in Elon Musk Romance Scam Involving Deepfake Video. The Independent, 2024. Disponível em: link. Último acesso em 11 de outubro de 2025.

STAMPER, Ronald K. A Semiotic Theory of Information and Information Systems. In: Proceedings of the Joint ICL/IFIP WG 8.1 Working Conference on Information Systems Methodologies, p. 1–12, 1993.

WANG, Tianyi et al. Deepfake Detection: A Comprehensive Survey from the Reliability Perspective. ACM Computing Surveys, v. 57, n. 3, nov. 2024. Disponível em: https://doi.org/10.1145/3699710.

WORLD WIDE WEB CONSORTIUM (W3C). Introdução à Acessibilidade na Web. 2005. Disponível em: link. Último acesso em 11 de outubro de 2025.

ZHAO, Wenliang; RAO, Yongming; SHI, Weikang; LIU, Zuyan; ZHOU, Jie; LU, Jiwen. DiffSwap: High-Fidelity and Controllable Face Swapping via 3D Aware Masked Diffusion. In: IEEE/CVF Conference on Computer Vision and Pattern Recognition (CVPR), p. 8568–8577, 2023. Disponível em: https://doi.org/10.1109/CVPR52729.2023.00828

Sobre o Autor

Lucas Ferreira Lopes é Bacharel em Biotecnologia pela Universidade Federal de Alfenas (UNIFAL-MG) e mestrando em Informática pela Universidade Federal do Paraná (UFPR), com ênfase em Inteligência Artificial. Atua profissionalmente no setor de prevenção a fraudes financeiras. Suas áreas de interesse incluem Deep Learning, Visão Computacional e Segurança da Informação.

Como citar essa matéria: 
LOPES, Lucas Ferreira. Deepfakes e a Crise da Comunicação Digital. SBC Horizontes. ISSN 2175-9235. outubro de 2025. Disponível em: <link>. Acesso em: dd mês aaaa.

Compartilhe: