UOL - O melhor conteúdo
Lupa
Falta de regulação e critérios de remoção de fakes impõem desafios ao TSE a 6 meses da eleição
06.04.2024 - 08h24
João Pessoa - PB
Foto: Luiz Roberto/Secom/TSE
A 6 meses da eleição municipal, o desafio de estancar a desinformação — diante da falta de regulação sobre o tema pelo Congresso e pela omissão no monitoramento de algumas plataformas — vai exigir ainda mais atenção do Tribunal Superior Eleitoral (TSE). É o que alertam especialistas ouvidos pela reportagem, que criticam, ainda, a falta de critérios mais transparentes que serão adotados pela Justiça Eleitoral e big techs para remoção de conteúdos enganosos. 
O combate à desinformação e a regulamentação de inteligência artificial (IA) no Brasil é tema de vários projetos de lei que há anos tramitam no Congresso. Os principais são o PL 2.630/2020, também chamado de PL das Fake News; e o PL 2.338/2023, que propõe a regulamentação do uso da Inteligência Artificial no Brasil. Contudo, essas propostas seguem paradas.
Diante desse cenário, o TSE aprovou em fevereiro a resolução nº 23.732/2024, com o objetivo de orientar partidos, coligações, federações partidárias, candidatos e eleitores sobre os procedimentos previstos na legislação eleitoral. Destaque para a norma que proíbe o uso de deepfake (manipulação de vídeos, áudios ou fotos) com intuito de enganar os eleitores na campanha e para a restrição ao uso de IA nas propagandas, que precisarão de um aviso sobre o uso da tecnologia.
Entretanto, a resolução aprovada apresenta algumas lacunas, segundo especialistas, por dar margem a diversas interpretações. Dentre elas, a de que qualquer conteúdo eleitoral 'sabidamente inverídico' poderia ser removido pelas plataformas, mesmo sem autorização judicial. Além disso, outro ponto questionado é quais critérios serão adotados para identificar, na propaganda eleitoral, conteúdos “notoriamente inverídicos ou gravemente descontextualizados que atinjam a integridade do processo eleitoral”. 
Um dos principais entraves de discordância é o artigo 9E. O trecho diz que "os provedores de aplicação serão solidariamente responsáveis, civil e administrativamente, quando não promoverem a indisponibilização imediata de conteúdos e contas, durante o período eleitoral". O texto, segundo alguns juristas, pode dar margem para que as empresas sejam responsabilizadas por conteúdos removidos sem uma determinação judicial e que não foram denunciados por usuários ou pelo TSE. 
O alerta é que esse dispositivo poderia ir de encontro ao artigo 19 do Marco Civil da Internet, aprovado em 2014. Segundo o texto, provedores somente poderão ser responsabilizados civilmente por danos decorrentes de conteúdo gerado por terceiros se, após ordem judicial específica, "não tomar as providências para [...] tornar indisponível o conteúdo apontado como infringente". A alegação de especialistas é de que conteúdos podem ser retirados sem a mínima moderação apropriada para cumprir a norma do TSE. 
Marco Civil da Internet, sancionado em 2014, trouxe avanços para disciplinar o uso da Internet no Brasil. Foto: Divulgação/Câmara

Conflito com Marco Civil 

A resolução do TSE aprovada em fevereiro deste ano é um importante norte para o enfrentamento à desinformação, diante da falta de regulação sobre o tema no Congresso, avaliam especialistas. Entretanto, um dos grandes questionamentos apontados é a de que plataformas, sem moderação apropriada, remova conteúdos em massa por receio de penalização, sendo acusadas de censura. 
"Caso elas [as big techs] retirem algo que não era violador, elas podem ser responsabilizadas pela retirada de discurso legítimo. [...] As plataformas têm esse dever [de tomar esse cuidado]. [...] A melhor saída seria dar mais clareza de que precisa ou não dessa notificação dos usuários [antes de qualquer remoção]", diz o professor Filipe Medon, advogado especialista em Direito Digital. 
O Instituto Sivis publicou nota em que afirma que o artigo 9E se choca com o artigo 19 do Marco Civil da Internet, e que a retirada precipitada de conteúdos da internet "pode acarretar censura à liberdade de expressão”. “Deve-se, porém, proteger e respeitar a 'primeira liberdade, a liberdade de expressão, que sustenta lógica e moralmente o regime democrático baseado no pluralismo e no dissenso". 
Com o intuito de assegurar a liberdade de expressão e impedir a censura, o provedor de aplicações de internet somente poderá ser responsabilizado civilmente por danos decorrentes de conteúdo gerado por terceiros se, após ordem judicial específica, não tomar as providências para, no âmbito e nos limites técnicos do seu serviço e dentro do prazo assinalado, tornar indisponível o conteúdo apontado como infringente, ressalvadas as disposições legais em contrário
– Trecho do artigo 19 do Marco Civil da Internet
Professores e pesquisadores da FGV Direito Rio também publicaram um texto em que afirmam que a norma do TSE pode trazer "potenciais conflitos com a lei federal", em referência ao Marco Civil da Internet. "Sem regulação que balize adequadamente o tratamento do tema da moderação de conteúdo no Brasil, as disposições que poderiam promover a melhoria do debate público online correm o sério risco de justificar uma maior arbitrariedade de atores privados na remoção de conteúdos de expressão legítima", diz trecho.
A professora Yasmin Curzi, uma das autoras do texto assinado em conjunto pelos pesquisadores da FGV, afirma que há diversos apontamentos a serem feitos no entendimento do artigo 9E da resolução do TSE. Segundo ela, apesar dos avanços, o texto é um pouco vago em relação ao que é considerado 'remoção imediata', se é a partir de uma decisão judicial, por exemplo. Ela também critica em sua fala o papel das big techs nesse monitoramento, ou seja, elas deveriam ter mais deveres de cuidado diante de discursos que propagam violências contra grupos vulneráveis. "As plataformas deveriam atuar com mais proatividade em relação a conteúdos que violam ali direitos fundamentais", avalia. 
Mesmo com a cobrança maior da Justiça Eleitoral, Yasmin Curzi vê de forma cética uma melhora no monitoramento feito pelas plataformas para o pleito deste ano — principalmente pensando numa eleição local. "Eu não acho que vai mudar tanto, que elas [as big techs] vão melhorar o sistema de moderação ao ponto de ter mais remoção arbitrária do que já temos. [...] Porque estamos falando de sistemas de IA [inteligência artificial] de conteúdo potencialmente ilícito que não funciona direito, a gente sabe muito bem isso". 
O Ministro Alexandre de Moraes vem cobrando maior celeridade de plataformas com monitoramento de conteúdos enganosos. Foto: Divulgação/TSE
O ministro Alexandre de Moraes reforçou, na última terça-feira (2), que a Justiça Eleitoral responsabilizará autores de conteúdos falsos com ou sem uso de IA no período eleitoral. "[Nos casos de] desrespeito às resoluções, além da aplicação das sanções, inclusive pecuniárias, a AGU será imediatamente notificada para ingressar com as ações judiciais necessárias, para fazer valer as resoluções, o combate às deepfakes, o combate às notícias fraudulentas”, afirmou.

Critérios de remoção de conteúdo

Especialistas também chamam atenção para os critérios de transparência de remoção de conteúdos. Apesar de o texto da resolução do TSE apontar quais tipos de publicações devem ser retiradas imediatamente pelas big techs, há critérios que precisam ser levados em consideração, principalmente pelas especificidades de cada plataforma e da complexidade do conteúdo do post. 
O artigo 9E afirma que precisa ser retirado imediatamente publicações com "fatos notoriamente inverídicos ou gravemente descontextualizados que atinjam a integridade do processo eleitoral", "grave ameaça, direta e imediata, de violência ou incitação à violência contra a integridade física de membros e servidores da Justiça eleitoral", "comportamento ou discurso de ódio, inclusive promoção de racismo, homofobia, ideologias nazistas, fascistas ou odiosas" e "conteúdo fabricado ou manipulado, parcial ou integralmente, por tecnologias digitais, incluindo inteligência artificial". 
A preocupação é de que conteúdos que não violem as normas sejam cada vez mais excluídos por sistemas de automação dessas plataformas. "Essas resoluções como a do TSE vão demandar uma moderação muito mais ativa das plataformas. Por outro lado, elas [as big techs] estão supostamente com menos força de trabalho humana, dependendo mais de atividades de tarefas mecanizadas, ou seja automatizadas por novas tecnologias. Então a chance de isso levar a erro é considerável, porque elas vão ter que moderar muito mais coisas. E a moderação de algumas dessas categorias são extremamente subjetivas", explica o professor Ivan Paganotti. 
Vale lembrar que a eleição deste ano é municipal, o que torna ainda mais desafiante o trabalho da Justiça Eleitoral em acompanhar, em cada município, o impacto da desinformação, avaliam especialistas. 
Os dados de remoção de conteúdos desinformativos nas eleições de 2022 mostram que essa iniciativa ainda depende muito mais de ações pontuais das big techs. É o que aponta  relatório de ações e resultados das eleições 2022, do TSE, em relação ao programa permanente de enfrentamento à desinformação. 
A título de exemplo, após a publicação da resolução nº 23.714/2022 — com normas mais duras para enfrentamento da desinformação que comprometia a integridade das eleições de 2022 — foram proferidas em torno de 100 decisões judiciais para remoção de narrativas falsas em mídias sociais. 
Outras 43.559 denúncias de irregularidades (incluindo posts desinformativos e com discurso de ódio) foram recebidas pela Justiça Eleitoral por meio do Sistema de Alerta de Desinformação Contra as Eleições, ferramenta criada para encaminhamento de conteúdos enganosos em nível de moderação. Desse total, 68% das denúncias recebidas nas eleições de 2022 foram encaminhadas para análise das plataformas.
Denúncias recebidas pelo TSE nas eleições de 2022 e encaminhadas para plataformas. Imagem: Divulgação/TSE
O TSE explicou que, quanto ao seu canal de denúncias, Facebook e Instagram receberam mais de 530 apontamentos durante o período oficial da campanha eleitoral (16 de agosto a 30 de outubro). As denúncias continham mais de 900 instâncias de diferentes
conteúdos e, em 85% delas, foram adotadas ações pela Meta, diz o TSE. "Essas ações incluíram, a depender dos casos, remoção de conteúdo, aplicação com mensagem de alerta sobre o conteúdo, aplicação de rótulos ou encaminhamento a agências parceiras de verificação de fatos". 
A Meta informou ainda ao TSE que removeu por conta própria, no período de 16 de agosto e 30 de outubro de 2022, mais de 310 mil conteúdos por violência e incitação e outras 290 mil publicações por discurso de ódio. "Foram removidas, também, publicações violadoras da política de interferência eleitoral, com posts com datas e horários de votação incorretos ou que apontavam números errados de candidatos", explicou a Meta. 
O Telegram afirma que adotou uma série de medidas, incluindo o monitoramento de grupos durante as eleições de 2022. No último trimestre de 2022, diz que baniu mais de 414 mil contas inautênticas (incluindo spam, falsidade ideológica e violações dos termos de serviço da plataforma).
Já o TikTok, por conta própria, removeu 66 mil vídeos com algum conteúdo desinformativo. O TSE enviou para a plataforma 128 publicações recebidas em seu canal de denúncias, desse total o TikTok removeu 106 vídeos. Por sua vez, o Youtube afirma ter excluído mais de 10 mil vídeos que violavam as políticas relacionadas às eleições e 2,5 mil contas de sua plataforma. 
No documento publicado pela Justiça Eleitoral, apesar da parceria com as plataformas e de iniciativas para as eleições de 2022, nem todas informaram dados sobre remoção de posts, a exemplo da Kwai e X (antigo Twitter).
A colaboração das plataformas, segundo o professor Ivan Paganotti, do Programa de Pós-Graduação em Comunicação Social da Universidade Metodista de São Paulo, é mais do que essencial. Entretanto, há um problema se ficarmos à espera somente das big techs para resolver esse problema.
O volume e a velocidade com que esses conteúdos estão circulando podem dificultar o trabalho dos julgadores e diminuir a eficácia dessa lei. Porque como a gente tem um volume grande de informações falsas e conteúdos ofensivos circulando, a Justiça não conseguiria dar uma resposta tão rápida nesses casos. Então a justificativa do TSE ao construir essa nova resolução foi tentar dar mais velocidade para esses temas particularmente problemáticos
– Professor Ivan Paganotti, do Programa de Pós-Graduação em Comunicação Social da Universidade Metodista de São Paulo
===

Outro lado

A reportagem enviou e-mail pedindo esclarecimentos à assessoria do TSE em relação aos apontamentos feitos pelos especialistas sobre as lacunas da resolução — a exemplo do artigo 9E e do conflito com o artigo 19 do Marco Civil da Internet —, entretanto não houve retorno.

LEIA MAIS
Clique aqui para ver como a Lupa faz suas checagens e acessar a política de transparência
A Lupa faz parte do
The trust project
International Fact-Checking Network
A Agência Lupa é membro verificado da International Fact-checking Network (IFCN). Cumpre os cinco princípios éticos estabelecidos pela rede de checadores e passa por auditorias independentes todos os anos.
A Lupa está infringindo esse código? FALE COM A IFCN
Tipo de Conteúdo: Reportagem
Conteúdo investigativo que aborda temas diversos relacionados a desinformação com o objetivo de manter os leitores informados.
Copyright Lupa. Todos os direitos reservados. É proibida a reprodução do conteúdo desta página em qualquer meio de comunicação, eletrônico ou impresso, sem autorização.

Leia também


18.05.2024 - 12h15
Tragédia no Sul
Doações, resgates e alarmismo dominam onda de fakes sobre enchentes no RS

A crescente onda de desinformação sobre as enchentes no Rio Grande do Sul tem se caracterizado por três eixos principais: doações, resgates e alarmismo. Muitas das fakes já checadas também envolvem, em maior ou menor grau, a atuação — ou falta dela — dos governos na crise e a generalização de problemas isolados. Reportagem detalha e analisa o tema. 

Carol Macário
17.05.2024 - 14h11
Enchentes no RS
Políticos desinformam sobre tragédia no RS e atiçam base contra imprensa e opositores

Políticos têm usado as redes sociais para fazer coro à desinformação sobre a tragédia climática no RS, descredibilizar o trabalho da imprensa e atacar as instituições estatais. Levantamento da Lupa mostrou que, entre 1 e 15 de maio, parlamentares disseminaram informações descontextualizadas ou fakes já desmentidas, especialmente sobre doações.

Carol Macário
17.05.2024 - 10h01
Arco-íris sob ataque
201 projetos anti-LGBT+ chegaram às Assembleias Legislativas do Brasil desde 2020

A quarta e última reportagem da série sobre a desinformação anti-LGBT+ nas Américas mostra que 201 projetos anti-LGBT+ chegaram às Assembleias Legislativas do Brasil desde 2020. Destes, sete viraram lei – e uma dessas leis foi invalidada pelo STF. Amazonas, Rondônia, Paraíba e Espírito Santo têm restrições legais ativas contra os LGBT+

Cristina Tardáguila
16.05.2024 - 10h07
Arco-íris sob ataque
Estratégia “copia e cola” espalha projetos de lei anti-LGBT+ pelo Brasil

A linguagem não-binária, a participação de trans em esportes e todas as atividades pedagógicas relacionadas a sexo ou gênero são alvo de dezenas de projetos de lei país afora. Muitas dessas propostas chegam a ter um índice de mais de 80% de semelhança na redação. Esta é a terceira reportagem da série sobre a desinformação anti-LGBT+ nas Américas

Cristina Tardáguila
15.05.2024 - 10h06
Arco-íris sob ataque
Fakes do movimento anti-LGBT+ buscam opor educação sexual e segurança infantil

Posts que sugerem que pedófilos 'lambem os beiços em escolas primárias' e que pedem punição a pessoas trans viralizam em português, inglês e espanhol, sem levar em consideração dados factuais. Esta é a segunda reportagem da série sobre a desinformação anti-LGBT+ nas Américas

Cristina Tardáguila
Lupa © 2024 Todos os direitos reservados
Feito por
Dex01
Meza Digital