Poder e Governo

Justiça Eleitoral condena um a cada cinco casos de deepfake e enfrenta dificuldades para identificar IA

Estudo identificou 591 decisões relacionadas à disputa de 2024

Agência O Globo - 25/03/2026
Justiça Eleitoral condena um a cada cinco casos de deepfake e enfrenta dificuldades para identificar IA
Imagem ilustrativa gerada por inteligência artificial - Foto: Nano Banana (Google Imagen)

A três dias das eleições de 2024, o então prefeito de Caxias (MA), município a 372 quilômetros de São Luís, subiu no palanque de um comício do sobrinho, que tentava eleger como sucessor, e posicionou o celular próximo ao microfone para mostrar algo que anunciou como "absurdo". No alto-falante, reproduziu o áudio de um homem dizendo que "já falou para Paulinho que ele vai ter que demitir todos os contratados" da prefeitura. A voz era atribuída ao ex-deputado Paulo Marinho, pai do candidato Paulo Marinho Junior (PL), que perderia a disputa por uma diferença de 565 votos entre os mais de 111 mil eleitores da cidade.

Paulinho, o candidato derrotado pelo filho do prefeito, recorreu à Justiça Eleitoral pedindo a cassação do adversário, sob alegação de uso de "deepfake" pela campanha rival, que teria simulado a voz de seu pai por meio de inteligência artificial (IA). A ação, porém, foi rejeitada após uma perícia da Polícia Federal sobre a veracidade do áudio ter resultado "inconclusiva". Ou seja, não era possível dizer se era ou não IA. A defesa dos acusados destacou que não houve comprovação técnica da "alegada manipulação".

O episódio ilustra as dificuldades enfrentadas pela Justiça Eleitoral para punir uso de deepfake em campanhas eleitorais. Um levantamento obtido pelo GLOBO aponta que apenas um a cada cinco casos nas eleições de 2024 teve condenação. O estudo, feito pela pesquisadora Jhennifer Macedo, do Instituto Brasileiro de Ensino, Desenvolvimento e Pesquisa (IDP), identificou que de 591 decisões relacionadas à disputa daquele ano, em 118 (20%) houve reconhecimento de que eram conteúdos manipulados digitalmente para prejudicar adversários.

Preocupado com o uso indiscriminado de IA nas campanhas deste ano, o Tribunal Superior Eleitoral (TSE) endureceu regras para conteúdos produzidos por meio da tecnologia. Resolução aprovada no início do mês proíbe publicação desse tipo de conteúdo nas 72 horas que antecedem o pleito, além de determinar que qualquer propaganda que utilize imagem, voz ou conteúdo manipulado deverá informar, de forma "explícita, destacada e acessível", que se trata de material fabricado ou alterado.

Mas a principal inovação da resolução da Corte Eleitoral, na avaliação de especialistas na área, foi a autorização para a chamada "inversão do ônus da prova". Ou seja, nas ações que discutam manipulação digital para prejudicar um dos candidatos, o juiz poderá determinar que o acusado comprove que o conteúdo que ele publicou é real e a veracidade da informação veiculada. Ainda foi permitido que Tribunais fechem parcerias com universidades e entidades que possam ajudar na perícia.

— A jurisprudência demonstra que, sem respaldo técnico robusto, a responsabilização por deepfakes torna-se inviável, mesmo diante de indícios evidentes de manipulação e dano ao processo eleitoral — afirma a pesquisadora do IDP. — A possibilidade de inversão do ônus da prova tende a enfrentar um dos principais gargalos identificados na judicialização das deepfakes, que é a comprovação da manipulação digital — diz Macedo.

Essa regra, se estivesse valendo, poderia mudar o desfecho da eleição na cidade do interior maranhense. Durante o processo, o juiz ordenou ao candidato denunciado que apresentasse o áudio original levado ao microfone do seu comício. A defesa, contudo, alegou o direito constitucional à não autoincriminação e derrubou a determinação. Assim, a perícia foi realizada com base em vídeos gravados por pessoas que assistiam ao comício, que, por causa da baixa qualidade, não permitiram à PF concluir se a voz veiculada era fruto de manipulação por IA.

Divergências de enquadramento

A Justiça Eleitoral trata a deepfake como uma vertente da desinformação em que há adulteração de sons e de vídeos nos quais o tom, o timbre e até o jeito de alguém falar são recriados artificialmente. Assim, ao receber uma gravação pelo WhatsApp, por exemplo, o eleitor reconhece a voz do candidato e acredita que o político disse algo que, na verdade, não disse.

Entretanto, o enquadramento jurídico ainda não é uniforme entre tribunais eleitorais, segundo concluiu o estudo feito por Macedo. A pesquisa mostrou que, em 2024, juízes eleitorais tomaram três caminhos ao analisarem as ações sobre conteúdos gerados por IA: ou permitiram em alguns casos, ou proibiram totalmente ou avaliaram o grau de manipulação para poder julgar, explica a coordenadora no Aláfia Lab Liz Nóbrega.

Ela classificou como “dúbia” a aplicação das regras sobre IA em 2024.

— É preciso que a Justiça Eleitoral tenha uma interpretação uniforme para avaliar esses casos, se o contexto será um fator preponderante no julgamento ou se há uma restrição completa a esse tipo de conteúdo — diz.

Na última eleição, 62% dos casos de deepfake não foram proibidos por serem “expressivos”. A Justiça não os considerou ilícitos ou por falta de intenção e dano a eleição, os enquadrando como liberdade de expressão em razão de conterem sátira, crítica ou humor. Assim, o reconhecimento de uma deepfake como ilícito eleitoral depende de diversos fatores subjetivos, como o seu potencial de prejudicar candidaturas adversárias, explica Macedo.

Foi o caso de um vídeo produzido por IA disseminado por WhatsApp entre eleitores de Pescaria Brava (SC), município a 132 quilômetros da capital, Florianópolis, na campanha de 2024. A produção, que tratava um dos candidatos como "Rei do Pó", foi compartilhada em um grupo com 918 inscritos, o equivalente a cerca de 10% da população da cidade.

Após reclamação do candidato, a Justiça determinou a exclusão do vídeo das redes — medida considerada por especialistas como inócua, uma vez que não é possível controlar o compartilhamento via WhatsApp —, mas sem determinar punições. A decisão judicial considerou que não houve "viralização ou disparo em massa" da mensagem.

Outro empecilho nas análises de deepfake pela Justiça Eleitoral é a dificuldade de rastrear a autoria do conteúdo, o que impede a aplicação de multas ou, nos casos mais graves, a cassação de candidaturas. Na eleição pela prefeitura de Goiânia, capital de Goiás, por exemplo, um vídeo divulgado nas redes sociais mostrava uma montagem na qual o atual governador, Ronaldo Caiado, fazia críticas ao candidato que apoiou na disputa, Sandro Mabel (União Brasil). O conteúdo foi divulgado em um perfil de Instagram intitulado “Direita Cristã Goiânia”.

Na ocasião, o Tribunal Regional Eleitoral de Goiás (TRE-GO) reconheceu “fortes indícios de uso de conteúdo sintético manipulado artificialmente para difundir fatos inverídicos” e chegou a ordenar à plataforma a identificação do responsável pelo perfil, o que foi feito. Porém, após meses sem que a Justiça conseguisse encontrar as pessoas indicadas, Mabel desistiu da ação, uma vez que já havia sido eleito. O vídeo permanece no ar até hoje.

Especialistas destacam que, em alguns casos, a autorregulação das próprias plataformas pode ser uma forma eficaz de identificar as deepfakes. Na semana passada, o YouTube estendeu para políticos, candidatos e governantes o acesso a uma ferramenta que detecta conteúdos falsos criados por inteligência artificial.

A mudança ocorreu logo após a aprovação da resolução do TSE, que prevê responsabilizar as plataformas caso não removam material gerado por IA que violem o regramento.

O advogado especializado em Direito Eleitoral Diogo Rais, que foi juiz do TRE de São Paulo, afirma que a dificuldade de se punir deepfake não está na ausência de regras, mas em sua aplicação.

— É muito difícil imaginar que a Justiça Eleitoral conseguiria apoio técnico no tempo, na velocidade e na quantidade necessária. Não é a Justiça Eleitoral que não tem, o Brasil não tem — afirma ele.

Já para Heloísa Massaro, diretora de pesquisa e operações do InternetLab, embora o TSE tente ser pioneiro ao regular o uso de inteligência artificial no contexto eleitoral, ainda falta uma legislação que trate do tema de forma estrutural.

— Muitos desses esforços de controle de conteúdo podem funcionar quase enxugando o gelo, uma vez que é necessária uma regulação mais abrangente de inteligência artificial no Brasil, algo que está parado no Congresso — avalia Massaro.

Deepfake pelo mundo

A proliferação das deepfakes eleitorais não é um fenômeno apenas no Brasil, mas, em alguns países, as punições têm sido mais severas. Nos Estados Unidos, por exemplo o consultor político Steve Kramer foi multado em US$ 6 milhões após usar a tecnologia para disparar ligações automáticas simulando a voz do então presidente Joe Biden em 2024. Na gravação, uma voz gerada por inteligência artificial sugeria que votar nas primárias do Partido Democrata poderia impedir os eleitores de votar na eleição geral, que ocorreria alguns meses depois. A sanção foi aplicada pelo Federal Communications Commission (FCG), orgão regulador da área de telecomunicações e radiodifusão no país.

No ano passado, foi apresentada ao Senado dos EUA uma proposta de lei de proteção das eleições contra IA, que proíbe a distribuição de conteúdo enganoso manipulado digitalmente visando influenciar as eleições. O texto segue em tramitação no Congresso americano.

Em outro caso do tipo, em maio do ano passado, a Justiça da Argentina recebeu uma denúncia sobre um vídeo feito por IA que simulava a voz e a imagem do ex-presidente Mauricio Macri, comunicando a renúncia de uma candidata de seu partido, horas antes do pleito. Na ocasião, foi determinada a remoção imediata da publicação, a identificação dos responsáveis e abertura de um processo por violação à vedação eleitoral contra os autores.

A professora da FGV Direito Rio e advogada Yasmin Curzi afirma que uma das principais diferenças do Brasil em relação a outros países é a ausência de uma agência reguladora que defina modelos de governança para as plataformas, como existe em locais como Austrália, Reino Unido e União Europeia. Ela pontua, contudo, que mesmo nestes casos, há críticas sobre a ineficácia dos meios de controle.

— Uma crítica que agências regulatórias na UE têm sofrido é de incapacidade de uma ação mais reativa. São críticas por falta de proatividade e por incapacidade das vítimas de irem atrás de reparação — diz Curzi.

Um estudo feito pela FGV Comunicação Rio, intitulado "Inteligência Artificial no mundo", identificou exemplos de uso da tecnologia para tentar influenciar o resultado eleitoral em diferentes países. Na África do Sul, por exemplo, vídeos colocavam o cantor Eminem e o ex-presidente Donald Trump criticando o Congresso Nacional Africano (ANC), histórico partido de Nelson Mandela, e promovendo candidaturas de oposição. Já no México, em meio a campanha, conteúdos exibiam a então candidata à presidência Claudia Sheinbaum “promovendo investimentos financeiros supostamente milagrosos”.

Na Índia, peças feitas com IA foram usadas para exibir falsas manifestações de apoio de celebridades e até “recados do além”, com imagens de figuras políticas já falecidas, aponta o estudo. Um dos casos destacados é o do conteúdo que forja a declaração de um ministro afirmando que acabaria com ações afirmativas no país. Um funcionário de um partido opositor foi preso e mais 16 pessoas foram investigadas.

A pesquisa também analisou casos de IA na União Europeia, onde hoje já há regulação sobre o tema. Apesar disso, foram identificados casos de conteúdos manipulados nas eleições nacionais de alguns países, como na Holanda. O fundador de um partido mais alinhado à direita compartilhou em seu Instagram deepfakes sobre opositores visando “impedir a tomada de poder marxista e proteger a propriedade privada”. De acordo com os pesquisadores, foi a primeira vez no país que um político utilizou a tecnologia para angariar apoio.

Rafael Zanatta, codiretor da Data Privacy Brasil, afirma que, ao criar normas para uso de IA nas eleições, o TSE se tornou regulador da tecnologia no país, o que não ocorre em outros locais do mundo.

— Nos Estados Unidos, quando na Califórnia tentaram fazer uma legislação específica sobre vedação de fake news política durante as eleições, em 2025, entraram com uma ação contra essa lei e a derrubaram sob o argumento de que a legislação fere os direitos constitucionais de liberdade de expressão. Em alguns países da Europa, há uma discussão crescente também sobre criminalização do deepfake — afirma ele.