Créditos da imagem: Freepik
A discussão sobre deepfakes deixou de ser um tema lateral na Justiça Eleitoral. Em 2024, o Tribunal Superior Eleitoral proibiu o uso desse tipo de conteúdo na propaganda eleitoral e tornou obrigatório o aviso sobre uso de inteligência artificial. Em 2026, o tribunal revisou as regras e publicou o novo pacote de resoluções em 4 de março, depois de audiências públicas realizadas entre 3 e 5 de fevereiro. As mudanças aparecem no texto consolidado da Resolução 23.610/2019 e na Resolução 23.755/2026.
Foi nesse cenário que a Lawletter ouviu a advogada e especialista em Direito Digital, Suzana Ferreira, para entender onde ela vê os principais riscos das deepfakes no ano eleitoral e até onde a resposta jurídica consegue ir quando vídeos e áudios manipulados já estão circulando em massa.
A regra ficou mais detalhada, mas o problema não desapareceu
No texto da Resolução 23.610, o art. 9º-B exige que o uso de conteúdo sintético multimídia seja informado de modo explícito, destacado e acessível. Já o art. 9º-C proíbe o uso de conteúdo fabricado ou manipulado para difundir fatos notoriamente inverídicos ou descontextualizados com potencial de dano ao equilíbrio do pleito e à integridade do processo eleitoral. Na versão de 2026, a regra ainda passou a prever um campo específico para declaração de uso de IA em impulsionamento e vedou, mesmo com rotulagem, a publicação, republicação e o impulsionamento de novos conteúdos sintéticos com imagem, voz ou manifestação de candidato ou pessoa pública nas 72 horas anteriores e nas 24 horas posteriores ao pleito.
No papel, a distinção está desenhada. Há o conteúdo sintético que pode circular com transparência e há a deepfake proibida, que entra no campo da manipulação eleitoral ilícita. O ponto levantado por Suzana começa depois disso. Ele aparece quando esse material chega ao eleitor antes da checagem, da perícia e da remoção.
Quando o eleitor não consegue mais distinguir com segurança
Para Suzana, o risco mais imediato das deepfakes nas eleições de 2026 está na capacidade de confundir o eleitor e embaralhar o debate público antes de qualquer reação institucional.
![]()
“O maior risco dessas deepfakes é a propagação das fake news, da notícia falsa, da acusação, dos crimes contra a honra, contra outros políticos, outros candidatos. Isso vai confundir bastante o eleitor, porque nós temos tecnologias tão novas e tão realistas que, realmente, às vezes, o eleitor não consegue distinguir o que é IA e o que é verdade.”
O alerta dela conversa com pesquisas que medem a capacidade humana de reconhecer manipulações. Um estudo publicado na PLOS ONE concluiu que ouvintes não identificam speech deepfakes de forma confiável. Já um trabalho publicado em 2026 na Communications Psychology mostrou que avisos de transparência não eliminam a influência de vídeos gerados por IA.
O caminho mais rápido ainda passa pelas plataformas
Ao falar do papel das plataformas, Suzana não reduz o problema à simples retirada de um post. Para ela, o ponto central é o tempo. Quando um vídeo manipulado já está circulando em escala, é pelas plataformas que se tenta interromper a propagação antes que o dano aumente.
Na leitura dela, isso acontece também por uma razão prática: identificar quem criou uma deepfake ainda é difícil e demorado. A remoção do conteúdo publicado, por outro lado, pode ser pedida diretamente à plataforma que hospeda o material.
A própria Resolução 23.610 amplia esse papel. O art. 9º-D prevê deveres que vão além da remoção pontual. O texto fala em termos de uso compatíveis com a integridade eleitoral, manutenção de canais de denúncia, adoção de medidas preventivas e corretivas e aprimoramento dos sistemas de recomendação. Também exige transparência nos resultados e avaliação de impacto das ferramentas utilizadas durante o período eleitoral.
O mesmo dispositivo determina que, ao detectar conteúdo ilícito ou ser formalmente notificado sobre sua circulação, o provedor deve agir sem demora. Isso inclui interromper impulsionamento, monetização e acesso ao material; medidas que tentam reduzir o alcance enquanto a discussão jurídica avança.
Essa cobrança passou a ganhar outro peso depois do julgamento em que o STF redefiniu a responsabilização das redes sociais. Na decisão, a Corte admitiu hipóteses de responsabilização sem ordem judicial prévia e manteve um regime específico para serviços de e-mail e mensageria privada, por causa do sigilo das comunicações.
Em vez de esperar uma decisão judicial para agir, a expectativa agora é que as plataformas respondam já na fase administrativa, a partir da notificação. Se a remoção não ocorre, aí sim entram multas e eventual judicialização. Esse caminho, segundo Suzana, não é apenas estratégico, mas necessário diante das limitações estruturais que ainda existem na investigação de crimes digitais. Delegacias especializadas são concentradas em grandes centros e operam com equipes reduzidas, o que torna mais lenta a identificação da origem do conteúdo manipulado.
Quando o conteúdo ganha escala, o tempo vira o principal problema

Créditos da imagem: GettyImages
Quando um vídeo manipulado já alcançou milhares de pessoas, o problema muda de dimensão. A autoria e o eventual benefício eleitoral continuam relevantes, mas a velocidade da circulação passa a ocupar o centro da análise.
É nesse ponto que a prioridade jurídica costuma mudar de ordem. Antes de aprofundar a investigação sobre quem produziu o conteúdo ou quem se beneficiou dele, a primeira tentativa é conter a circulação e reduzir o alcance do material.
A atualização de 2026 tentou responder a isso. O art. 9º-E passou a prever responsabilidade solidária também em casos de conteúdo idêntico ou substancialmente equivalente ao que já tenha sido objeto de ordem de indisponibilização, quando a plataforma, ciente da decisão, não promove a retirada imediata.
A norma também determina que os provedores mantenham soluções específicas para o recebimento e processamento de denúncias feitas por candidatas, candidatos, partidos, federações e coligações — um mecanismo pensado para acelerar a identificação e retirada de conteúdos potencialmente ilícitos.
Mesmo assim, há limites práticos importantes. A própria Resolução 23.610 estabelece, no art. 33, § 2º, que mensagens enviadas consensualmente por pessoa natural, de forma privada ou em grupos restritos, não se submetem às normas de propaganda eleitoral previstas na resolução. E o julgamento do STF preservou tratamento distinto para WhatsApp, Telegram e serviços semelhantes. É aí que parte da dificuldade reaparece.
O TSE tentou atacar esse ponto em mais de uma frente. O art. 9º-I, incluído em 2026, permite ao juiz inverter o ônus da prova quando a comprovação técnica for excessivamente onerosa para o autor da representação. Já o art. 9º-J autoriza os Tribunais Eleitorais a firmarem acordos com universidades, entidades e órgãos com profissionais capacitados em perícia de ilícitos digitais e IA. E o art. 125-B passou a exigir plano de conformidade dos provedores de aplicação para prevenção e mitigação de riscos à integridade do processo eleitoral.
Ao ampliar a análise, Suzana também puxa a conversa para fora do calendário eleitoral. O Brasil ainda discute um marco geral para inteligência artificial no Congresso. O PL 2.338/2023 foi aprovado no Senado em 10 de dezembro de 2024 e encaminhado à Câmara dos Deputados, onde segue em tramitação.
No fim, sobra o dano à imagem
Quando uma deepfake começa a circular, o estrago pode acontecer antes de qualquer medida jurídica. O vídeo chega em grupos, atravessa perfis e passa a ser visto por gente que não tem como saber, naquele primeiro momento, se aquilo é verdadeiro ou não.
Essa preocupação tem base jurídica clara. O art. 5º, inciso X, da Constituição Federal protege a intimidade, a vida privada, a honra e a imagem das pessoas e assegura indenização por dano material ou moral decorrente de violação.
Suzana chama atenção para a velocidade com que esse tipo de conteúdo se espalha e para a dificuldade de recuperar a reputação depois que a imagem já foi associada a algo falso.
![]()
“O nosso direito de imagem está sendo completamente rasgado diante das nossas mãos. Eu não estou achando engraçado, porque dependendo do conteúdo, até eu provar que aquilo não é verdadeiro, que não sou eu que estou ali praticando aquele ato, que eu não tive aquela opinião política ou social, às vezes a minha imagem já foi manchada.
E uma imagem manchada hoje nas redes sociais, na internet, pode não ter volta. Então é necessário sim a gente falar de direito de imagem em primeiro lugar, porque a sua reputação é a única coisa que você tem.”
As regras ficaram mais detalhadas e o caminho jurídico está mais definido do que em eleições anteriores. Ainda assim, o intervalo entre a circulação de um vídeo e a resposta institucional continua sendo o ponto mais sensível desse debate. Quando a remoção acontece, o conteúdo já foi visto, comentado e compartilhado. E, nesse cenário, a discussão sobre deepfakes deixa de ser apenas eleitoral e passa a ser também sobre o que resta da imagem de quem foi exposto quando a correção chega tarde demais.
Cibelle Ferreira | Redação Lawletter
Fontes
- TSE proíbe uso de inteligência artificial para criar e propagar conteúdos falsos nas eleições | Tribunal Superior Eleitoral
- Eleições 2026: TSE publica todas as resoluções que orientarão o pleito | Tribunal Superior Eleitoral
- TSE conclui audiências públicas sobre regras das Eleições 2026 | Tribunal Superior Eleitoral
- Warning: Humans cannot reliably detect speech deepfakes | PLOS One
- The continued influence of AI-generated deepfake videos despite transparency warnings | Communications Psychology