UOL - O melhor conteúdo
Lupa
Falta de regulação e critérios de remoção de fakes impõem desafios ao TSE a 6 meses da eleição
06.04.2024 - 08h24
João Pessoa - PB
Foto: Luiz Roberto/Secom/TSE
A 6 meses da eleição municipal, o desafio de estancar a desinformação — diante da falta de regulação sobre o tema pelo Congresso e pela omissão no monitoramento de algumas plataformas — vai exigir ainda mais atenção do Tribunal Superior Eleitoral (TSE). É o que alertam especialistas ouvidos pela reportagem, que criticam, ainda, a falta de critérios mais transparentes que serão adotados pela Justiça Eleitoral e big techs para remoção de conteúdos enganosos. 
O combate à desinformação e a regulamentação de inteligência artificial (IA) no Brasil é tema de vários projetos de lei que há anos tramitam no Congresso. Os principais são o PL 2.630/2020, também chamado de PL das Fake News; e o PL 2.338/2023, que propõe a regulamentação do uso da Inteligência Artificial no Brasil. Contudo, essas propostas seguem paradas.
Diante desse cenário, o TSE aprovou em fevereiro a resolução nº 23.732/2024, com o objetivo de orientar partidos, coligações, federações partidárias, candidatos e eleitores sobre os procedimentos previstos na legislação eleitoral. Destaque para a norma que proíbe o uso de deepfake (manipulação de vídeos, áudios ou fotos) com intuito de enganar os eleitores na campanha e para a restrição ao uso de IA nas propagandas, que precisarão de um aviso sobre o uso da tecnologia.
Entretanto, a resolução aprovada apresenta algumas lacunas, segundo especialistas, por dar margem a diversas interpretações. Dentre elas, a de que qualquer conteúdo eleitoral 'sabidamente inverídico' poderia ser removido pelas plataformas, mesmo sem autorização judicial. Além disso, outro ponto questionado é quais critérios serão adotados para identificar, na propaganda eleitoral, conteúdos “notoriamente inverídicos ou gravemente descontextualizados que atinjam a integridade do processo eleitoral”. 
Um dos principais entraves de discordância é o artigo 9E. O trecho diz que "os provedores de aplicação serão solidariamente responsáveis, civil e administrativamente, quando não promoverem a indisponibilização imediata de conteúdos e contas, durante o período eleitoral". O texto, segundo alguns juristas, pode dar margem para que as empresas sejam responsabilizadas por conteúdos removidos sem uma determinação judicial e que não foram denunciados por usuários ou pelo TSE. 
O alerta é que esse dispositivo poderia ir de encontro ao artigo 19 do Marco Civil da Internet, aprovado em 2014. Segundo o texto, provedores somente poderão ser responsabilizados civilmente por danos decorrentes de conteúdo gerado por terceiros se, após ordem judicial específica, "não tomar as providências para [...] tornar indisponível o conteúdo apontado como infringente". A alegação de especialistas é de que conteúdos podem ser retirados sem a mínima moderação apropriada para cumprir a norma do TSE. 
Marco Civil da Internet, sancionado em 2014, trouxe avanços para disciplinar o uso da Internet no Brasil. Foto: Divulgação/Câmara

Conflito com Marco Civil 

A resolução do TSE aprovada em fevereiro deste ano é um importante norte para o enfrentamento à desinformação, diante da falta de regulação sobre o tema no Congresso, avaliam especialistas. Entretanto, um dos grandes questionamentos apontados é a de que plataformas, sem moderação apropriada, remova conteúdos em massa por receio de penalização, sendo acusadas de censura. 
"Caso elas [as big techs] retirem algo que não era violador, elas podem ser responsabilizadas pela retirada de discurso legítimo. [...] As plataformas têm esse dever [de tomar esse cuidado]. [...] A melhor saída seria dar mais clareza de que precisa ou não dessa notificação dos usuários [antes de qualquer remoção]", diz o professor Filipe Medon, advogado especialista em Direito Digital. 
O Instituto Sivis publicou nota em que afirma que o artigo 9E se choca com o artigo 19 do Marco Civil da Internet, e que a retirada precipitada de conteúdos da internet "pode acarretar censura à liberdade de expressão”. “Deve-se, porém, proteger e respeitar a 'primeira liberdade, a liberdade de expressão, que sustenta lógica e moralmente o regime democrático baseado no pluralismo e no dissenso". 
Com o intuito de assegurar a liberdade de expressão e impedir a censura, o provedor de aplicações de internet somente poderá ser responsabilizado civilmente por danos decorrentes de conteúdo gerado por terceiros se, após ordem judicial específica, não tomar as providências para, no âmbito e nos limites técnicos do seu serviço e dentro do prazo assinalado, tornar indisponível o conteúdo apontado como infringente, ressalvadas as disposições legais em contrário
– Trecho do artigo 19 do Marco Civil da Internet
Professores e pesquisadores da FGV Direito Rio também publicaram um texto em que afirmam que a norma do TSE pode trazer "potenciais conflitos com a lei federal", em referência ao Marco Civil da Internet. "Sem regulação que balize adequadamente o tratamento do tema da moderação de conteúdo no Brasil, as disposições que poderiam promover a melhoria do debate público online correm o sério risco de justificar uma maior arbitrariedade de atores privados na remoção de conteúdos de expressão legítima", diz trecho.
A professora Yasmin Curzi, uma das autoras do texto assinado em conjunto pelos pesquisadores da FGV, afirma que há diversos apontamentos a serem feitos no entendimento do artigo 9E da resolução do TSE. Segundo ela, apesar dos avanços, o texto é um pouco vago em relação ao que é considerado 'remoção imediata', se é a partir de uma decisão judicial, por exemplo. Ela também critica em sua fala o papel das big techs nesse monitoramento, ou seja, elas deveriam ter mais deveres de cuidado diante de discursos que propagam violências contra grupos vulneráveis. "As plataformas deveriam atuar com mais proatividade em relação a conteúdos que violam ali direitos fundamentais", avalia. 
Mesmo com a cobrança maior da Justiça Eleitoral, Yasmin Curzi vê de forma cética uma melhora no monitoramento feito pelas plataformas para o pleito deste ano — principalmente pensando numa eleição local. "Eu não acho que vai mudar tanto, que elas [as big techs] vão melhorar o sistema de moderação ao ponto de ter mais remoção arbitrária do que já temos. [...] Porque estamos falando de sistemas de IA [inteligência artificial] de conteúdo potencialmente ilícito que não funciona direito, a gente sabe muito bem isso". 
O Ministro Alexandre de Moraes vem cobrando maior celeridade de plataformas com monitoramento de conteúdos enganosos. Foto: Divulgação/TSE
O ministro Alexandre de Moraes reforçou, na última terça-feira (2), que a Justiça Eleitoral responsabilizará autores de conteúdos falsos com ou sem uso de IA no período eleitoral. "[Nos casos de] desrespeito às resoluções, além da aplicação das sanções, inclusive pecuniárias, a AGU será imediatamente notificada para ingressar com as ações judiciais necessárias, para fazer valer as resoluções, o combate às deepfakes, o combate às notícias fraudulentas”, afirmou.

Critérios de remoção de conteúdo

Especialistas também chamam atenção para os critérios de transparência de remoção de conteúdos. Apesar de o texto da resolução do TSE apontar quais tipos de publicações devem ser retiradas imediatamente pelas big techs, há critérios que precisam ser levados em consideração, principalmente pelas especificidades de cada plataforma e da complexidade do conteúdo do post. 
O artigo 9E afirma que precisa ser retirado imediatamente publicações com "fatos notoriamente inverídicos ou gravemente descontextualizados que atinjam a integridade do processo eleitoral", "grave ameaça, direta e imediata, de violência ou incitação à violência contra a integridade física de membros e servidores da Justiça eleitoral", "comportamento ou discurso de ódio, inclusive promoção de racismo, homofobia, ideologias nazistas, fascistas ou odiosas" e "conteúdo fabricado ou manipulado, parcial ou integralmente, por tecnologias digitais, incluindo inteligência artificial". 
A preocupação é de que conteúdos que não violem as normas sejam cada vez mais excluídos por sistemas de automação dessas plataformas. "Essas resoluções como a do TSE vão demandar uma moderação muito mais ativa das plataformas. Por outro lado, elas [as big techs] estão supostamente com menos força de trabalho humana, dependendo mais de atividades de tarefas mecanizadas, ou seja automatizadas por novas tecnologias. Então a chance de isso levar a erro é considerável, porque elas vão ter que moderar muito mais coisas. E a moderação de algumas dessas categorias são extremamente subjetivas", explica o professor Ivan Paganotti. 
Vale lembrar que a eleição deste ano é municipal, o que torna ainda mais desafiante o trabalho da Justiça Eleitoral em acompanhar, em cada município, o impacto da desinformação, avaliam especialistas. 
Os dados de remoção de conteúdos desinformativos nas eleições de 2022 mostram que essa iniciativa ainda depende muito mais de ações pontuais das big techs. É o que aponta  relatório de ações e resultados das eleições 2022, do TSE, em relação ao programa permanente de enfrentamento à desinformação. 
A título de exemplo, após a publicação da resolução nº 23.714/2022 — com normas mais duras para enfrentamento da desinformação que comprometia a integridade das eleições de 2022 — foram proferidas em torno de 100 decisões judiciais para remoção de narrativas falsas em mídias sociais. 
Outras 43.559 denúncias de irregularidades (incluindo posts desinformativos e com discurso de ódio) foram recebidas pela Justiça Eleitoral por meio do Sistema de Alerta de Desinformação Contra as Eleições, ferramenta criada para encaminhamento de conteúdos enganosos em nível de moderação. Desse total, 68% das denúncias recebidas nas eleições de 2022 foram encaminhadas para análise das plataformas.
Denúncias recebidas pelo TSE nas eleições de 2022 e encaminhadas para plataformas. Imagem: Divulgação/TSE
O TSE explicou que, quanto ao seu canal de denúncias, Facebook e Instagram receberam mais de 530 apontamentos durante o período oficial da campanha eleitoral (16 de agosto a 30 de outubro). As denúncias continham mais de 900 instâncias de diferentes
conteúdos e, em 85% delas, foram adotadas ações pela Meta, diz o TSE. "Essas ações incluíram, a depender dos casos, remoção de conteúdo, aplicação com mensagem de alerta sobre o conteúdo, aplicação de rótulos ou encaminhamento a agências parceiras de verificação de fatos". 
A Meta informou ainda ao TSE que removeu por conta própria, no período de 16 de agosto e 30 de outubro de 2022, mais de 310 mil conteúdos por violência e incitação e outras 290 mil publicações por discurso de ódio. "Foram removidas, também, publicações violadoras da política de interferência eleitoral, com posts com datas e horários de votação incorretos ou que apontavam números errados de candidatos", explicou a Meta. 
O Telegram afirma que adotou uma série de medidas, incluindo o monitoramento de grupos durante as eleições de 2022. No último trimestre de 2022, diz que baniu mais de 414 mil contas inautênticas (incluindo spam, falsidade ideológica e violações dos termos de serviço da plataforma).
Já o TikTok, por conta própria, removeu 66 mil vídeos com algum conteúdo desinformativo. O TSE enviou para a plataforma 128 publicações recebidas em seu canal de denúncias, desse total o TikTok removeu 106 vídeos. Por sua vez, o Youtube afirma ter excluído mais de 10 mil vídeos que violavam as políticas relacionadas às eleições e 2,5 mil contas de sua plataforma. 
No documento publicado pela Justiça Eleitoral, apesar da parceria com as plataformas e de iniciativas para as eleições de 2022, nem todas informaram dados sobre remoção de posts, a exemplo da Kwai e X (antigo Twitter).
A colaboração das plataformas, segundo o professor Ivan Paganotti, do Programa de Pós-Graduação em Comunicação Social da Universidade Metodista de São Paulo, é mais do que essencial. Entretanto, há um problema se ficarmos à espera somente das big techs para resolver esse problema.
O volume e a velocidade com que esses conteúdos estão circulando podem dificultar o trabalho dos julgadores e diminuir a eficácia dessa lei. Porque como a gente tem um volume grande de informações falsas e conteúdos ofensivos circulando, a Justiça não conseguiria dar uma resposta tão rápida nesses casos. Então a justificativa do TSE ao construir essa nova resolução foi tentar dar mais velocidade para esses temas particularmente problemáticos
– Professor Ivan Paganotti, do Programa de Pós-Graduação em Comunicação Social da Universidade Metodista de São Paulo
===

Outro lado

A reportagem enviou e-mail pedindo esclarecimentos à assessoria do TSE em relação aos apontamentos feitos pelos especialistas sobre as lacunas da resolução — a exemplo do artigo 9E e do conflito com o artigo 19 do Marco Civil da Internet —, entretanto não houve retorno.

LEIA MAIS
Clique aqui para ver como a Lupa faz suas checagens e acessar a política de transparência
A Lupa faz parte do
The trust project
International Fact-Checking Network
A Agência Lupa é membro verificado da International Fact-checking Network (IFCN). Cumpre os cinco princípios éticos estabelecidos pela rede de checadores e passa por auditorias independentes todos os anos.
A Lupa está infringindo esse código? FALE COM A IFCN
Tipo de Conteúdo: Reportagem
Conteúdo investigativo que aborda temas diversos relacionados a desinformação com o objetivo de manter os leitores informados.
Copyright Lupa. Todos os direitos reservados. É proibida a reprodução do conteúdo desta página em qualquer meio de comunicação, eletrônico ou impresso, sem autorização.

Leia também


25.04.2025 - 18h04
Política
Após prisão, Collor é associado a Lula e Bolsonaro nas redes; quem ele realmente apoiou?

O ex-presidente Fernando Collor de Mello foi preso nesta sexta-feira (25), por corrupção passiva e lavagem de dinheiro. Nas redes, grupos à esquerda tentam atrelar a imagem do ex-presidente ao bolsonarismo, enquanto a direita ressalta relações com governos petistas. A Lupa relembra quem o ex-presidente realmente apoiou.

Ítalo Rômany
24.04.2025 - 18h31
Código Eleitoral
Novo Código Eleitoral pode ter mais punição às fakes; entenda debate

 A Comissão de Constituição e Justiça (CCJ) do Senado discutiu, nesta quinta-feira (24), o Projeto de Lei Complementar 112/2021, que propõe um novo Código Eleitoral. O projeto busca unificar sete leis eleitorais em um único texto. A Lupa explica, em seis pontos, possíveis alterações na legislação.


Gabriela Soares
22.04.2025 - 18h48
Trama golpista
Por unanimidade, STF aceita denúncia contra ‘núcleo 2’ e mais 6 viram réus por trama golpista

A Primeira Turma do STF aceitou por unanimidade a denúncia apresentada pela PGR contra o chamado 'núcleo 2' da trama golpista. Com a decisão, os investigados passam a responder a ação penal por crimes como o de tentativa de abolição violenta do Estado Democrático de Direito. Ao todo, já são 14 réus, entre eles o ex-presidente Jair Bolsonaro.

Ítalo Rômany
11.04.2025 - 08h00
Tarifaço
Nas redes, direita apoia tarifas de Trump e esquerda vê Brasil beneficiado

Diante do tarifaço implementado pelo governo norte-americano do presidente Donald Trump, mercados oscilam, agentes econômicos temem uma recessão global e especialistas tentam entender os impactos no comércio mundial. Nas redes sociais, porém, perfis à direita e à esquerda comemoram as medidas anunciadas pelo republicano.

João Pedro Capobianco
07.04.2025 - 15h48
Justiça
TJ-RS arquiva ação de Nego Di movida contra a Lupa por checagem sobre enchentes

A 2ª Vara Cível do Tribunal de Justiça do Estado do Rio Grande do Sul julgou improcedente, em sentença publicada em 2 de abril, ação movida por Nego Di contra a Lupa. O processo foi motivado por uma checagem publicada em maio de 2024, que desmentia uma informação falsa divulgada pelo influenciador a respeito das enchentes no Rio Grande do Sul.

Ítalo Rômany
Women Owned
Assine nossa newsletter
sobre desinformação
Acompanhe nossas redes
Lupa © 2025 Todos os direitos reservados
Feito por
Dex01
Meza Digital