UOL - O melhor conteúdo
Lupa
Áudios manipulados com uso de IA viram alerta para eleições municipais
20.02.2024 - 12h00
João Pessoa - PB
A reportagem foi atualizada para incluir retorno da assessoria do WhatsApp
18.04.2024 - 03h35
Em dezembro do ano passado, um áudio supostamente gravado pelo prefeito de Manaus, David Almeida (Avante), circulou em grupos do WhatsApp com ataques aos professores do município. “O que mais tem é professor vagabundo que quer o dinheirinho de mão beijada. Eu não paguei o Fundeb, mas o povo esquece, tu vai ver”. 
O áudio foi disseminado dias depois de os professores da rede pública de ensino municipal protestarem, pedindo o pagamento do abono do Fundo de Manutenção e Desenvolvimento da Educação Básica e de Valorização dos Profissionais da Educação (Fundeb). Entretanto, segundo Almeida, o áudio foi manipulado com uso de Inteligência Artificial (IA) para colocá-lo "em rota de colisão com os professores". 
A Polícia Federal do Amazonas, em nota, confirmou que o áudio foi manipulado. Entretanto, a denúncia ainda está em investigação, e a apuração vem sendo resguardada para não prejudicar as diligências em andamento. “Oportunamente serão encaminhados os resultados da investigação", afirmou o delegado Rafael Grummt, que acompanha o caso. 
Casos similares ao do prefeito David Almeida vêm ocorrendo em outras cidades do país — o que aumenta o alerta para as eleições municipais deste ano. O presidente do Tribunal Superior Eleitoral (TSE), ministro Alexandre de Moraes, já havia defendido em dezembro 'sanções mais duras e severas' — penal e civil — para candidatos que utilizarem IA com o intuito de 'desvirtuar' a vontade do eleitor.  
Em Maringá (PR), o Tribunal Regional Eleitoral do Paraná (TRE-PR) ordenou que o WhatsApp bloqueasse o compartilhamento de um áudio manipulado com a voz do pré-candidato à prefeitura Silvio Barros — na suposta gravação, ele afirmava que não concorreria mais ao cargo. A Lupa enviou e-mail para a assessoria da Polícia Federal do Paraná, pedindo maiores esclarecimentos sobre a investigação, mas não obteve retorno. 
Para o professor Filipe Medon, advogado especialista em Direito Digital, a manipulação de áudios por IA, por ser mais acessível, pode ter um impacto ainda maior nas eleições deste ano, principalmente em cidades menores. "Você tem às vezes ali um áudio que vai ser feito de um vereador de bairro que vão imputar para ele uma coisa que ele não disse. E aí você vai ter uma dificuldade de controlar [a disseminação]. Então o efeito silencioso dessas práticas no âmbito dos currais eleitorais vai ser devastador. Precisa tomar cuidado para essa próxima eleição, e eu tenho dúvidas de como que a gente consegue fiscalizar isso", alerta. 
Em Crissiumal (RS), o prefeito Marco Aurélio Nedel (PL) também denunciou nas redes em dezembro que teve sua voz usada em um áudio manipulado por IA com ataque aos servidores do município. A gravação, segundo o prefeito, chegou a ser disseminada pelo presidente da Câmara, Paulo Rafael Medina, em um grupo de mensagens com vereadores. O parlamentar, entretanto, se defendeu: "Esclareço que [...] a mensagem compartilhada não teve a intenção de denegrir o senhor prefeito, mas com o único e exclusivo intuito de dar conhecimento aos demais membros daquele lamentável áudio".

Manipulação de áudios

A disseminação de áudios manipulados por IA tende a ser mais rápida — e com maior impacto do que vídeos falsos. Segundo o perito em computação forense e diretor da Lopes Perícia, Diogo Lopes, a capacidade de avanço da tecnologia e a rapidez com que a máquina aprende (machine learning) técnicas de reprodução tornam mais difícil o trabalho de averiguação do material.
No caso de áudios, ferramentas de IA estão cada vez mais incorporando elementos próximos da realidade, a exemplo da entonação de voz e do sotaque da pessoa. "Você pega esse áudio e você passa ele por uma inteligência artificial, que vai aprender os meus trejeitos de linguagem coloquial, linguajar do dia a dia, basicamente ele vai aprender a variação linguística. Isso é quase uma identidade da pessoa, meu padrão de fala. Por incrível que pareça ela aprende até o ambiente em que a pessoa está falando", explica.
Para descobrir que um áudio foi manipulado, Lopes alerta que o avanço da tecnologia torna, para leigos, a averiguação desse conteúdo mais difícil. A perícia desse material passa por uma longa jornada, desde a análise detalhada da entonação, da frequência de voz, comparando com um áudio real gravado pela pessoa. "Eu consigo fazer uma análise forense específica para conseguir questionar e validar a veracidade ou não do material", diz.
A depender do tamanho e da qualidade do material, essa averiguação pode levar, no mínimo, dois dias. Até lá, o estrago da disseminação de áudios falsos já foi feito. "Nesses casos, a recomendação é você ir direto na fonte desse áudio, ver se houve alguma retratação pública dessa pessoa. Porque o usuário, ouvindo esse áudio, ele não vai conseguir afirmar se é verdadeiro", explica.

Pressão para coibir disseminação de fakes

O Brasil não tem uma legislação específica sobre desinformação, deepfakes ou crimes cibernéticos. Pressionado por entidades não-governamentais e partidos políticos, o TSE tem realizado audiências especificamente para casos relacionados ao processo eleitoral deste ano. As minutas apresentadas — e que devem ser julgadas pelo Plenário até 5 de março — preveem punições já adotadas para quem compartilhar conteúdos enganosos nas redes, incluindo como novidade o uso de IA com o objetivo de manipular o processo eleitoral. 
Contudo, o professor Filipe Medon lembra que o TSE está atuando com poder de resolução, não de lei, o que limita seu papel. "No fundo a gente tem aqui uma questão que é de ordem técnica, a gente tem uma questão normativa que é uma ausência na lei de um dever de moderação de conteúdo. [...] Acho que a gente tinha que ter em algumas medidas, em algumas situações, uma moderação de conteúdo como obrigação", diz.
Ministra Cármen Lúcia durante audiência do TSE sobre minuta das eleições 2024. Foto: Alejandro Zambrana/Secom/TSE
Representantes de plataformas digitais como Meta e Google defenderam durante audiência realizada pelo TSE que a responsabilização pelo impulsionamento de conteúdos desinformativos, incluindo aqueles com uso de IA deve ser sobre os anunciantes — neste caso, partidos e candidaturas. Embora tenham se comprometido a continuar o trabalho que afirmam que já desenvolvem contra a desinformação, as plataformas argumentam que atribuir aos provedores a definição do que são conteúdos inverídicos não é prudente — papel esse que deve ser da Justiça Eleitoral, afirmam.
Diogo Lopes lembra que o nicho de peritos no país é restrito, pensando numa eleição em mais de 5 mil cidades. Na prática, isso tende, a depender do caso, a aumentar a demanda e tardar a conclusão de laudos. "É preciso peritos capacitados para poderem dar esse suporte aos partidos e aos candidatos, com isenção, com imparcialidade e com técnica. É bom sempre frisar. É um laudo que vai ser embasado cientificamente para poder dizer a verdade em relação àquele caso", lembra. 
A Meta afirma que vem trabalhando numa abordagem para rotular conteúdos gerados por IA que os usuários postam no Facebook, Instagram e no Threads. Segundo a empresa, ela vem construindo ferramentas que possam identificar marcadores invisíveis em escala nesses conteúdos. Entretanto, Medon lembra que a disseminação de áudios manipulados é mais difícil de ser moderada, porque esse material circula com mais frequência em grupos do WhatsApp — por causa da criptografia de ponta a ponta que protege as mensagens dos usuários. "Então acaba não sendo uma solução muito efetiva, por isso que os áudios tendem a ter esse componente diferencial que agrava um pouco a situação. Então me parece que é um pouco problemático a gente pensar nesse cenário que está por vir aí", diz. 
Em nota, a assessoria do WhatsApp informou que está trabalhando na implementação de medidas colaborativas para enfrentar o uso fraudulento da Inteligência Artificial, especialmente no contexto eleitoral global de 2024. "O WhatsApp coopera diretamente com autoridades locais, incluindo o Tribunal Superior Eleitoral, fornecendo dados disponíveis em conformidade com a legislação local como o Marco Civil da Internet e também com as forças de segurança pública e o Poder Judiciário brasileiro, cumprindo requisições e ordens em conformidade com a legislação aplicável dentro das possibilidades da plataforma", afirmou.
O combate à desinformação e a regulamentação de IA no Brasil é tema de vários projetos de lei que há anos tramitam no Congresso. Os principais são o PL 2.630/2020, também chamado de PL das Fake News; e o PL 2.338/2023, que propõe a regulamentação do uso da Inteligência Artificial no Brasil. Contudo, essas propostas seguem paradas.

LEIA MAIS
Clique aqui para ver como a Lupa faz suas checagens e acessar a política de transparência
A Lupa faz parte do
The trust project
International Fact-Checking Network
A Agência Lupa é membro verificado da International Fact-checking Network (IFCN). Cumpre os cinco princípios éticos estabelecidos pela rede de checadores e passa por auditorias independentes todos os anos.
A Lupa está infringindo esse código? FALE COM A IFCN
Tipo de Conteúdo: Reportagem
Conteúdo investigativo que aborda temas diversos relacionados a desinformação com o objetivo de manter os leitores informados.
Copyright Lupa. Todos os direitos reservados. É proibida a reprodução do conteúdo desta página em qualquer meio de comunicação, eletrônico ou impresso, sem autorização.

Leia também


10.04.2024 - 17h41
Redes Sociais
X acumula embates com governos por falta de transparência e é proibido em 6 países

A extrema-direita vem usando o embate entre o dono do X, Elon Musk, e o ministro do STF Alexandre de Moraes para defender a "liberdade de expressão" diante do que eles chamam de "censura". Alegam que a rede pode ser bloqueada no Brasil e citam exemplos de países que proibiram o acesso. A Lupa elencou a situação do X em outras nações, confira.

Evelin Mendes
09.04.2024 - 11h36
Redes Sociais
Seis vezes que o X abriu brecha para desinformação em suposta defesa da liberdade de expressão

Um ano e meio desde a aquisição do Twitter por Elon Musk, agora chamado X, a rede ganhou a fama de ser o “esgoto da desinformação”. Sob o pretexto da “liberdade de expressão”, Musk permitiu que fakes circulassem livremente pela rede. A Lupa listou seis exemplos de decisões do bilionário que transformaram o X no epicentro de conteúdos falsos.

Carol Macário
06.04.2024 - 08h24
Eleições 2024
Falta de regulação e critérios de remoção de fakes impõem desafios ao TSE a 6 meses da eleição

Reportagem da Lupa mostra que, a 6 meses das eleições municipais, o desafio de estancar a desinformação — diante da falta de regulação pelo Congresso e pela omissão no monitoramento de algumas plataformas — vai exigir ainda mais atenção do TSE. Especialistas criticam ainda critérios que serão adotados para remoção de conteúdos enganosos.

Ítalo Rômany
05.04.2024 - 10h15
Política
Mistura de Páscoa, direito trans e NBA gera pico de 'fakes' nos EUA

Ignorando o fato de que o Dia da Visibilidade Transgênero existe desde 2009, religiosos conservadores usaram acusações falsas para atacar o presidente dos Estados Unidos, Joe Biden, na Páscoa, depois de ele ter manifestado apoio à comunidade trans em um comunicado.

Cristina Tardáguila
04.04.2024 - 15h25
Política
Lula volta a trocar mil por milhões e erra mortes de crianças em Gaza

O presidente Luiz Inácio Lula da Silva (PT) errou ao afirmar que 12,3 milhões de crianças morreram na Faixa de Gaza, em discurso na Conferência Nacional pelos Direitos das Crianças e Adolescentes em Brasília. É falso. Segundo o Fundo das Nações Unidas para a Infância (Unicef), 13,7 mil crianças foram mortas na região desde o início do conflito entre Israel e o Hamas.

Nathallia Fonseca
Lupa © 2024 Todos os direitos reservados
Feito por
Dex01
Meza Digital