Um estudo elaborado pelo IDP (1), em parceria com o projeto Ethics4AI e com apoio do Mackenzie, lançou um alerta importante sobre o uso de deep fakes nas eleições de 2024. A pesquisa teve como base a nova resolução do TSE, que proibiu completamente o uso desse tipo de manipulação nas campanhas políticas e nas redes sociais.
Mas o que se viu nos tribunais eleitorais não foi bem isso.
A gente sabe que os conteúdos gerados por inteligência artificial generativa, como vídeos falsos e montagens com candidatos, têm um potencial enorme de distorcer o debate público. O estudo do IDP analisou 56 decisões de Tribunais Regionais Eleitorais envolvendo possíveis deep fakes. A surpresa é que, em 25% dos casos, os juízes nem consideraram que se tratava de conteúdo eleitoral.
E isso gera um problema sério de governança.
Eu conversei com a pesquisadora em proteção de dados pessoais Stefani Vogel, que participou do estudo, cujo objetivo foi contribuir para o desenvolvimento de um know-how sobre inteligência artificial ética e confiável no Brasil.
Stefani chama a atenção para o fato de que, embora a Resolução do TSE n. 23.732/2024, seja clara ao vedar o uso de deep fakes, muitos dos casos não foram analisados pelos tribunais em sua totalidade — inclusive quanto à existência de desinformação.
Isso pode ter alguns motivos: em muitos casos, a Justiça Eleitoral ainda não identificou tecnicamente os conteúdos como deep fakes, mesmo quando havia elementos claros de manipulação.
Isso revela o despreparo técnico dos tribunais regionais para identificar conteúdos gerados ou alterados por IA.
“A gente visualizou diversos casos de deep fake, alguns foram mais famosos, como na propaganda eleitoral do estado de São Paulo. O que aconteceu é que o candidato Nunes e a candidata Tabata do Amaral fizeram uso do Ken no rosto do candidato, em que ele aparecia dançando. Essa situação foi levada a juízo, que entendeu que não era deep fake. Embora seja uma junção de conteúdo, a decisão foi de que a Justiça Eleitoral não teria que se debruçar sobre esse tipo de caso.”
Mas essa interpretação foi uniforme entre os tribunais? Houve consenso em afastar o crime eleitoral?
Não, não houve consenso. A pesquisa identificou três categorias principais de interpretação, refletindo as abordagens variadas da Justiça Eleitoral sobre o uso de deep fakes:
Permissão Condicionada: Alguns julgados admitiram o uso de deepfakes desde que não houvesse pedido de voto nem desinformação explícita. Nessa visão mais flexível, o uso criativo de IA, sem viés eleitoral direto, não comprometeria o processo democrático.
Proibição Total: Outra corrente defende o veto absoluto a deepfakes, mesmo na pré-campanha. O objetivo é resguardar a integridade eleitoral diante de qualquer manipulação.
Restrição por Manipulação: Essa abordagem considera o grau e o contexto da manipulação. Sátiras ou conteúdos obviamente fictícios são mais tolerados, mas deepfakes que criam fatos falsos ou enganosos são duramente rechaçados.
Essa diversidade mostra como é difícil construir consenso jurídico diante de uma tecnologia emergente como a IA generativa.
Outro ponto é que alguns tribunais só reconhecem a infração se houver potencial efetivo de dano à integridade eleitoral, o que pode enfraquecer a prevenção. Além disso, há debate sobre se o conteúdo precisa ser viralizado para caracterizar irregularidade.
Claro que todas as decisões são complexas e autônomas, mas, quando não há um entendimento comum, há risco de insegurança jurídica — o que afeta tanto candidatos quanto eleitores.
“Se, mesmo nesses poucos casos que analisamos até aqui, já se observou falta de consenso entre os diferentes tribunais — se aquele conteúdo poderia ou não ser considerado um deep fake, se deveria estar vinculado à desinformação ou se, por ter circulado apenas em grupos privados, não teria conotação eleitoral — isso demonstra que não houve uniformidade. Muitas vezes, o conteúdo nem sequer foi classificado como deep fake por conta dessas interpretações. Isso nos leva a refletir: qual conceito a Justiça está adotando e como podemos alcançar uma uniformidade interpretativa ao longo do tempo?”
O estudo também traz outro alerta grave, sobre violência política de gênero com deep fakes, não é?
Sim, e é alarmante. Houve casos como o da prefeita de Bauru e da deputada Tabata Amaral, que tiveram suas imagens adulteradas com montagens pornográficas. Esses ataques desmotivam mulheres na política e configuram violência de segunda ordem — aquela que desencoraja a participação feminina e leva muitas a desistirem da carreira. (3)
E a pesquisa apontou que esse fenômeno não é só brasileiro, certo?
Sim. Nos Estados Unidos, por exemplo, o uso de deep fakes nas campanhas está crescendo em volume. E com as eleições se aproximando, a tendência é que isso piore, se não houver regulação e fiscalização eficaz.
“O relatório não conclui o que se precisa ser feito na próxima eleição. O entendimento que se teve foi: a gente identificou divergências nos entendimentos. A gente precisa de uniformidade. Além de levar ideias e propostas, existem os direitos dos eleitores de se informar. A deep fake é algo falso. A tecnologia tem que funcionar para o bem do ser humano. É preciso ter cuidado para que isso não piore o cenário.”
E é por isso que o estudo faz recomendações claras:
A Justiça Eleitoral precisa aplicar a resolução com uniformidade.
É necessário capacitar juízes e técnicos para identificar manipulações.
E os eleitores precisam ser alfabetizados digitalmente, para interpretar criticamente o que consomem nas redes.
A gente precisa pensar: que tipo de eleição queremos para o futuro? Uma eleição transparente, ética, em que o eleitor tenha acesso à informação verdadeira e confiável.
É, parece que o caminho é mesmo o da educação digital e da regulação responsável.
Se a gente quer uma democracia forte, precisamos garantir que a informação chegue ao eleitor com transparência, rastreabilidade e responsabilidade.
Esse foi mais um Papo de Futuro. Com Beth Veloso, análises, reflexões e caminhos para pensar o impacto da tecnologia nas nossas escolhas políticas. Até o próximo programa!
Você pode enviar sua sugestão de tema, crítica ou comentário para o WhatsApp da Rádio Câmara: (61) 99978-9080 ou para o e-mail: papodefuturo@camara.leg.br
(1) https://www.idp.edu.br/arquivos/cedis/IDP%20-%20LIA%2C%20CEDIS%20e%20ETHICS4AI%20-%20Nota%20T%C3%A9cnica%20-%20Construindo%20Consensos%20-%20Deep%20Fakes%20nas%20Elei%C3%A7%C3%B5es%20de%202024.pdf
(2) https://www.linkedin.com/in/stefanivogel/?originalSubdomain=br
(3) https://oglobo.globo.com/politica/noticia/2024/10/15/nudes-falsos-deepfake-e-jingles-sinteticos-marcam-uso-da-ia-no-primeiro-turno-e-apontam-desafios-para-2026.ghtml
Comentário – Beth Veloso
Apresentação – Ana Raquel Macedo