Direito Digital
Direito Eleitoral

Deepfakes nas eleições: desinformação, dano à imagem e confusão para o eleitor

Em entrevista à Lawletter, a advogada Suzana Ferreira analisa como vídeos e áudios fabricados podem influenciar o debate público, e por que a resposta jurídica costuma começar quando o conteúdo já circulou.

Créditos da imagem: Freepik

A discussão sobre deepfakes deixou de ser um tema lateral na Justiça Eleitoral. Em 2024, o Tribunal Superior Eleitoral proibiu o uso desse tipo de conteúdo na propaganda eleitoral e tornou obrigatório o aviso sobre uso de inteligência artificial. Em 2026, o tribunal revisou as regras e publicou o novo pacote de resoluções em 4 de março, depois de audiências públicas realizadas entre 3 e 5 de fevereiro. As mudanças aparecem no texto consolidado da Resolução 23.610/2019 e na Resolução 23.755/2026.

Foi nesse cenário que a Lawletter ouviu a advogada e especialista em Direito Digital, Suzana Ferreira, para entender onde ela vê os principais riscos das deepfakes no ano eleitoral e até onde a resposta jurídica consegue ir quando vídeos e áudios manipulados já estão circulando em massa.

No texto da Resolução 23.610, o art. 9º-B exige que o uso de conteúdo sintético multimídia seja informado de modo explícito, destacado e acessível. Já o art. 9º-C proíbe o uso de conteúdo fabricado ou manipulado para difundir fatos notoriamente inverídicos ou descontextualizados com potencial de dano ao equilíbrio do pleito e à integridade do processo eleitoral. Na versão de 2026, a regra ainda passou a prever um campo específico para declaração de uso de IA em impulsionamento e vedou, mesmo com rotulagem, a publicação, republicação e o impulsionamento de novos conteúdos sintéticos com imagem, voz ou manifestação de candidato ou pessoa pública nas 72 horas anteriores e nas 24 horas posteriores ao pleito.

No papel, a distinção está desenhada. Há o conteúdo sintético que pode circular com transparência e há a deepfake proibida, que entra no campo da manipulação eleitoral ilícita. O ponto levantado por Suzana começa depois disso. Ele aparece quando esse material chega ao eleitor antes da checagem, da perícia e da remoção.

Para Suzana, o risco mais imediato das deepfakes nas eleições de 2026 está na capacidade de confundir o eleitor e embaralhar o debate público antes de qualquer reação institucional.

Foto de Suzana Ferreira

“O maior risco dessas deepfakes é a propagação das fake news, da notícia falsa, da acusação, dos crimes contra a honra, contra outros políticos, outros candidatos. Isso vai confundir bastante o eleitor, porque nós temos tecnologias tão novas e tão realistas que, realmente, às vezes, o eleitor não consegue distinguir o que é IA e o que é verdade.”

Suzana Ferreira

O alerta dela conversa com pesquisas que medem a capacidade humana de reconhecer manipulações. Um estudo publicado na PLOS ONE concluiu que ouvintes não identificam speech deepfakes de forma confiável. Já um trabalho publicado em 2026 na Communications Psychology mostrou que avisos de transparência não eliminam a influência de vídeos gerados por IA.

Ao falar do papel das plataformas, Suzana não reduz o problema à simples retirada de um post. Para ela, o ponto central é o tempo. Quando um vídeo manipulado já está circulando em escala, é pelas plataformas que se tenta interromper a propagação antes que o dano aumente.

Na leitura dela, isso acontece também por uma razão prática: identificar quem criou uma deepfake ainda é difícil e demorado. A remoção do conteúdo publicado, por outro lado, pode ser pedida diretamente à plataforma que hospeda o material.

A própria Resolução 23.610 amplia esse papel. O art. 9º-D prevê deveres que vão além da remoção pontual. O texto fala em termos de uso compatíveis com a integridade eleitoral, manutenção de canais de denúncia, adoção de medidas preventivas e corretivas e aprimoramento dos sistemas de recomendação. Também exige transparência nos resultados e avaliação de impacto das ferramentas utilizadas durante o período eleitoral.

O mesmo dispositivo determina que, ao detectar conteúdo ilícito ou ser formalmente notificado sobre sua circulação, o provedor deve agir sem demora. Isso inclui interromper impulsionamento, monetização e acesso ao material; medidas que tentam reduzir o alcance enquanto a discussão jurídica avança.

Essa cobrança passou a ganhar outro peso depois do julgamento em que o STF redefiniu a responsabilização das redes sociais. Na decisão, a Corte admitiu hipóteses de responsabilização sem ordem judicial prévia e manteve um regime específico para serviços de e-mail e mensageria privada, por causa do sigilo das comunicações.

Em vez de esperar uma decisão judicial para agir, a expectativa agora é que as plataformas respondam já na fase administrativa, a partir da notificação. Se a remoção não ocorre, aí sim entram multas e eventual judicialização. Esse caminho, segundo Suzana, não é apenas estratégico, mas necessário diante das limitações estruturais que ainda existem na investigação de crimes digitais. Delegacias especializadas são concentradas em grandes centros e operam com equipes reduzidas, o que torna mais lenta a identificação da origem do conteúdo manipulado.

Créditos da imagem: GettyImages

Quando um vídeo manipulado já alcançou milhares de pessoas, o problema muda de dimensão. A autoria e o eventual benefício eleitoral continuam relevantes, mas a velocidade da circulação passa a ocupar o centro da análise.

É nesse ponto que a prioridade jurídica costuma mudar de ordem. Antes de aprofundar a investigação sobre quem produziu o conteúdo ou quem se beneficiou dele, a primeira tentativa é conter a circulação e reduzir o alcance do material.

A atualização de 2026 tentou responder a isso. O art. 9º-E passou a prever responsabilidade solidária também em casos de conteúdo idêntico ou substancialmente equivalente ao que já tenha sido objeto de ordem de indisponibilização, quando a plataforma, ciente da decisão, não promove a retirada imediata.

A norma também determina que os provedores mantenham soluções específicas para o recebimento e processamento de denúncias feitas por candidatas, candidatos, partidos, federações e coligações — um mecanismo pensado para acelerar a identificação e retirada de conteúdos potencialmente ilícitos.

Mesmo assim, há limites práticos importantes. A própria Resolução 23.610 estabelece, no art. 33, § 2º, que mensagens enviadas consensualmente por pessoa natural, de forma privada ou em grupos restritos, não se submetem às normas de propaganda eleitoral previstas na resolução. E o julgamento do STF preservou tratamento distinto para WhatsApp, Telegram e serviços semelhantes. É aí que parte da dificuldade reaparece.

O TSE tentou atacar esse ponto em mais de uma frente. O art. 9º-I, incluído em 2026, permite ao juiz inverter o ônus da prova quando a comprovação técnica for excessivamente onerosa para o autor da representação. Já o art. 9º-J autoriza os Tribunais Eleitorais a firmarem acordos com universidades, entidades e órgãos com profissionais capacitados em perícia de ilícitos digitais e IA. E o art. 125-B passou a exigir plano de conformidade dos provedores de aplicação para prevenção e mitigação de riscos à integridade do processo eleitoral.

Ao ampliar a análise, Suzana também puxa a conversa para fora do calendário eleitoral. O Brasil ainda discute um marco geral para inteligência artificial no Congresso. O PL 2.338/2023 foi aprovado no Senado em 10 de dezembro de 2024 e encaminhado à Câmara dos Deputados, onde segue em tramitação.

Quando uma deepfake começa a circular, o estrago pode acontecer antes de qualquer medida jurídica. O vídeo chega em grupos, atravessa perfis e passa a ser visto por gente que não tem como saber, naquele primeiro momento, se aquilo é verdadeiro ou não.

Essa preocupação tem base jurídica clara. O art. 5º, inciso X, da Constituição Federal protege a intimidade, a vida privada, a honra e a imagem das pessoas e assegura indenização por dano material ou moral decorrente de violação.

Suzana chama atenção para a velocidade com que esse tipo de conteúdo se espalha e para a dificuldade de recuperar a reputação depois que a imagem já foi associada a algo falso.

Foto de Suzana

“O nosso direito de imagem está sendo completamente rasgado diante das nossas mãos. Eu não estou achando engraçado, porque dependendo do conteúdo, até eu provar que aquilo não é verdadeiro, que não sou eu que estou ali praticando aquele ato, que eu não tive aquela opinião política ou social, às vezes a minha imagem já foi manchada.

E uma imagem manchada hoje nas redes sociais, na internet, pode não ter volta. Então é necessário sim a gente falar de direito de imagem em primeiro lugar, porque a sua reputação é a única coisa que você tem.”

Suzana Ferreira

As regras ficaram mais detalhadas e o caminho jurídico está mais definido do que em eleições anteriores. Ainda assim, o intervalo entre a circulação de um vídeo e a resposta institucional continua sendo o ponto mais sensível desse debate. Quando a remoção acontece, o conteúdo já foi visto, comentado e compartilhado. E, nesse cenário, a discussão sobre deepfakes deixa de ser apenas eleitoral e passa a ser também sobre o que resta da imagem de quem foi exposto quando a correção chega tarde demais.


Cibelle Ferreira | Redação Lawletter

Fontes

Compartilhe esta notícia

WhatsApp
Facebook
LinkedIn
X

Notícias Relacionadas

Receba as principais notícias jurídicas direto no seu e-mail

plugins premium WordPress

Não perca nenhuma notícia jurídica!

Receba as principais análises e atualizações do direito brasileiro direto no seu e-mail.