UOL - O melhor conteúdo
Lupa
Justiça brasileira não tem dados sobre número de processos contra big techs por fakes
15.02.2024 - 08h00
Florianópolis - SC
O Poder Judiciário brasileiro não tem dados sobre o número de ações movidas contra big techs no Brasil por desinformação, deepfakes ou crimes cibernéticos. No Conselho Nacional de Justiça (CNJ), cuja função, entre outras, é dar transparência ao sistema, esses termos sequer estão listados nas chamadas Tabelas Processuais Unificadas, criadas para padronizar o cadastro dos temas discutidos em processos judiciais. Esse ‘apagão jurídico’ é grave, entre outros motivos, porque mascara o tamanho do problema. 
A ausência de métricas sobre as ações judiciais relacionadas às fake news no Brasil é considerada negativa porque, segundo especialistas, não dá a dimensão da frequência com que empresas como Meta — administradora do Facebook, Instagram e WhatsApp — e o Google são acionadas, nem se cumprem ou não ordens judiciais, por exemplo.
“E a frequência é enorme, é absurda”, afirma o advogado Alexandre Atheniense, ex-presidente da Comissão de Tecnologia da Informação da Ordem dos Advogados do Brasil (OAB). Especialista em direito digital, Atheniense estuda e atua em casos de golpes digitais e de celebridades que tiveram a imagem usada indevidamente. “O fato de [as empresas] seguirem sendo processadas mostra a falta de zelo das mídias sociais com os usuários”, opina. 
Essa falta de zelo é uma queixa recorrente, especialmente de personalidades conhecidas que tornam públicas suas tentativas de tirar do ar deepfakes. Em 17 de janeiro, o jornalista Pedro Bial acusou a Meta de ser cúmplice em crime de falsificação. Ele relatou ter feito inúmeros pedidos para que uma propaganda de produtos contra calvície, que usou IA para simular sua imagem e voz, fosse retirado do ar, mas não teve retorno da empresa. Na mesma semana, os jornalistas Fátima Bernardes e Tiago Leifert também relataram ter sido vítimas de deepfakes e questionaram a responsabilidade da Meta nesses casos.
“Com toda certeza existe um interesse na falta de dados. A falta de visibilidade de números e a falta de auditabilidade permitem que qualquer um diga qualquer coisa. Penso que numa sociedade que exige transparência, deveria, sim, ter métricas sobre isso na justiça.”
– Patrícia Peck Pinheiro, advogada especialista em direito digital, propriedade intelectual, proteção de dados e cibersegurança e professora de direito digital da ESPM 

Sistema do Judiciário está defasado e não abrange crimes cibernéticos

A página de Estatísticas do Poder Judiciário, que reúne indicadores dos tribunais de justiça brasileiros, não detalha, no campo assunto, nenhum processo que envolva acusações relacionadas ao universo das fake news. A reportagem fez buscas com os termos “deepfake”, “desinformação”, “fake news”,cibernético”, “crime ou estelionato cibernético”, “fraude virtual” ou “fraude + internet”, e “golpe virtual” e nenhum processo entre 2020 e 2023 relacionado a esses crimes foi associado. 
Embora sejam atualizadas constantemente, tabelas não incluem crimes cibernéticos
As nomenclaturas mais próximas ao universo das big techs que atualmente constam no sistema judiciário é “internet”, que aparece apenas no contexto de propaganda política e eleitoral; e “redes sociais”, também vinculada a processos da área política e eleitoral. 
Vale pontuar que a página de estatísticas é alimentada a partir de informações que são cadastradas nas Tabelas Processuais Unificadas. Esse instrumento foi implementado pelo CNJ em 2007 para padronizar a nomenclatura e terminologias de classes, assuntos, movimentações e documentos processuais do Poder Judiciário
Na prática, funciona assim: quando uma pessoa promove uma ação judicial contra alguém ou uma empresa, precisa fazer um cadastro e indicar qual é o tema da ação em uma tabela, a Tabela Processual Unificada. É essa plataforma que não abrange em sua nomenclatura crimes praticados via redes sociais. 
Em nota, o CNJ confirmou que não tem nas tabelas um tema específico para “crimes cibernéticos”, por exemplo, e que, por isso, não existem estatísticas. “Temos estelionato, mas não a desagregação do dado para os casos em que isso ocorra por meio cibernético”, explicou a assessoria de imprensa da instituição. O Conselho informou que as tabelas são atualizadas periodicamente por um comitê gestor e que esse trabalho é feito em conjunto com outros órgãos do judiciário. 
A atualização mais recente foi em novembro de 2023. “Um dos critérios para a inclusão de determinado assunto nas tabelas é que haja um normativo específico sobre o tema”, diz o CNJ. “Por exemplo, no caso da Lei 13.718/2018 [que estabeleceu o crime de importunação sexual], temos registro sobre importunação sexual, mas não há categoria para indicar se ela ocorreu on-line — por uso de imagens compartilhadas, pornografia e afins — ou offline, que seria o mais comum”, explicou o órgão. 
Questionado, o CNJ não informou se há previsão ou pedido para que termos como crime cibernético, desinformação, fake news, deepfake e outros sejam incluídos nas tabelas.
Em dezembro de 2023, o apresentador Marcos Mion denunciou o uso de sua imagem para vender chá para crianças com Transtorno do Espectro Autista (TEA) - Imagem: reprodução
Prestes a lançar um livro que analisa golpes digitais depois da pandemia da Covid-19, o advogado e pesquisador Alexandre Atheniense levou dois anos para analisar cerca de 500 processos e chegar a uma métrica sobre ações judiciais relacionadas a crimes virtuais —  um trabalho que foi feito manualmente, uma vez que esse indicador não é disponibilizado pelo CNJ. Nos últimos anos, ele atuou na defesa de mais de 30 casos de uso não autorizado de imagem e voz na internet e nas redes sociais. 
“Eu enfrento o Google e a Meta quase todos os dias nos tribunais, então não é que eles não estejam sendo acionados. São empresas de marketing, portanto para elas interessa o número de acessos em suas plataformas, não necessariamente cumprir a lei.”
– Alexandre Atheniense, advogado especialista em direito digital, ex-presidente da Comissão de Tecnologia da Informação da Ordem dos Advogados do Brasil (OAB)

Deepfakes e conteúdos falsos seguem circulando apesar de denúncias e processos

Talvez um dos exemplos mais emblemáticos da falta de zelo de empresas como a Meta seja o uso indevido da imagem do médico Drauzio Varella para aplicação de golpes e crimes cibernéticos. O médico é um alvo recorrente do chamado deepfake advertisement, termo que descreve o uso de inteligência artificial (IA) para criação de vídeos ou imagens deepfakes, ou seja, digitalmente manipuladas, para propaganda. 
Apesar de inúmeras denúncias, estelionatários seguem criando propagandas de medicamentos enganosas usando a imagem dele nas redes sociais. Na Lupa, já foram publicadas mais de 10 verificações que desmentem conteúdos que vendem desde suplementos para tratar dores articulares até a cura da diabetes falsamente atribuídos ao médico. 
Embora amplamente desmentidos por agências de checagem e pelo próprio Varella, plataformas como Facebook e Instagram seguem permitindo propagandas produzidas com deepfakes ou fake news. 
Vídeo criado com IA para simular voz e imagem de Drauzio Varella acumulou 470 mil visualizações em 10 dias - Imagem: reprodução
Em menos de 10 minutos de pesquisa em ferramentas de monitoramento do Facebook, por exemplo, a reportagem identificou mais um vídeo que usa IA para simular o médico recomendando uma dieta à base de ovos — o que não é verdade.
Em uma entrevista à Lupa em outubro de 2023, Varella afirmou que as plataformas digitais cometem crime ao permitir desinformação. Pelo JusBrasil, é possível localizar pelo menos um processo do médico contra a Meta. 

Deepfakes com famosos cresce

Golpes na internet não são novos, mas o uso de IA para criar deepfakes com famosos tem se alastrado. No contexto político, desde 2018 checadores de fatos têm identificado com mais frequência vídeos manipulados envolvendo candidatos a cargos públicos. Nos Estados Unidos, um vídeo deepfake de 2018 mostrava o ex-presidente Barack Obama dizendo palavras que nunca pronunciou, evidenciando o potencial da IA para manipular voz e imagem. 
Um levantamento recém-publicado pela Onfido, empresa baseada em Londres, no Reino Unido, especializada em tecnologias de verificação de identidade, indicou que, entre setembro de 2022 e setembro de 2023, as tentativas de deepfakes aumentaram 3.000% junto à base de dados da organização.
Casos de tentativas de deepfakes em vídeos e imagens da base de dados da Onfido aumentaram em 2023 - Imagem: reprodução
Em janeiro, fotos pornográficas falsas da cantora norte-americana Taylor Swift geradas por inteligência artificial provocaram reação da Casa Branca, que considerou a circulação dos conteúdos como “alarmante” — este ano, os Estados Unidos terão uma eleição presidencial pela frente. Em encontro com jornalistas, a secretária de imprensa Karine Jean-Pierre, da Casa Branca, afirmou que as empresas de redes sociais “têm um papel importante a desempenhar na aplicação das suas próprias regras para evitar a propagação de desinformação e de imagens íntimas e não consensuais de pessoas reais”.
Procurada, a Meta informou à Lupa que as atividades que tenham como objetivo enganar, fraudar ou explorar terceiros não são permitidas nas plataformas e que está “aprimorando a tecnologia para combater atividades suspeitas”. Recomendou ainda que os usuários denunciem quaisquer conteúdos contrários aos padrões e diretrizes da comunidade do Facebook, além dos padrões de publicidade da Meta. Apesar da resposta, a deepfake de Drauzio Varella supostamente vendendo uma dieta à base de ovo seguia no ar até as 10h15 do dia 1º de fevereiro de 2024.
Questionada sobre o uso de IA nas eleições, a empresa informou que, “este ano, a Meta passou a exigir que os anunciantes de todo o mundo divulguem quando utilizarem inteligência artificial ou métodos digitais para criar ou alterar um anúncio sobre questões políticas ou sociais”.
Também disse que o conteúdo gerado por IA é elegível para ser avaliado por parceiros  independentes de verificação de fatos em todo o mundo, entre os quais a Lupa, e que, atualmente, “os potenciais riscos de IA que a Meta tem visto estão em grande medida cobertos por políticas já existentes”. 

No Brasil, não existe lei específica contra fake news e deepfake

No Brasil, não existe uma lei que aborde especificamente a desinformação e a deepfake. De acordo com o LupaMundi, mapa interativo da Lupa que reúne leis nacionais e supranacionais sobre fakes em todo o globo, apenas 35 países possuem legislação específica. Na justiça brasileira, criadores de conteúdos falsos, quando identificados, podem ser punidos com base em outras leis — como as que determinam penas para os crimes de calúnia, injúria e difamação, por exemplo.
Sobre deepfakes, a professora de direito digital da ESPM, Patrícia Peck Pinheiro, afirma que já estão chegando à justiça os primeiros casos relacionados a golpes utilizando inteligência artificial. “Normalmente esses casos são enquadrados como estelionato digital, porque se utiliza de um artifício ardiloso, ou seja, induzindo pessoas ao erro, para poder ter um ganho monetário”, diz.
Esse enquadramento só foi possível após uma alteração do artigo 171 do Código Penal em 2021. Naquele ano, a Lei nº 14.155 criou a figura da fraude eletrônica, também chamada de estelionato digital, para tipificar uma forma qualificada do crime de estelionato — apesar de ter sido criada há mais de dois anos, esses dois termos não constam nas Tabelas Processuais Unificadas da justiça brasileira. 
A professora e advogada observa que existe um número grande de ações que pedem a remoção de conteúdos falsos das plataformas digitais — que são pedidos extrajudiciais e que muitas vezes param na Justiça Civil. No contexto criminal, advogados se apoiam na atualização recente do artigo 171 — que ainda não especifica deepfake ou inteligência artificial.
“Do ponto de vista do direito brasileiro, é importante ressaltar que, pelo que está previsto no Marco Civil da Internet (Lei 12.965 / 2014), a responsabilidade prévia das plataformas não é considerada [artigo 19]. O argumento é que um posicionamento prévio à publicação de um conteúdo poderia configurar censura”, explica a professora. 
Ela pondera, no entanto, que o modelo de negócios das plataformas, com monetização, uso de algoritmos e de hashtags que levam a informação até o usuário, aponta, sim, para uma participação conjunta das empresas na disseminação de conteúdos falsos ou golpes. “Daí, inclusive, a necessidade de atualizar o Marco Civil da Internet”, opina.
“O desafio hoje é que não há uma padronização nas regras das plataformas. Até em nível de autorregulação, no sentido de código de melhores práticas, isso não avançou entre as empresas. Hoje, mesmo que a vítima denuncie, em muitos casos demora para ter resposta ou, quando para no judiciário com ordem judicial, também não há uma padronização de prazo de atendimento de cumprimento e até com aplicação de multa.”
– Patrícia Peck Pinheiro, advogada especialista em direito digital, propriedade intelectual, proteção de dados e cibersegurança e professora de direito digital da ESPM .
“Quando a gente tem, hoje, algum caso que envolva uso não autorizado de imagem e voz, não significa que não existam meios jurídicos para responsabilizar as empresas por ter dado suporte a esses conteúdos. Não é impune no Brasil. Não temos, no entanto, um tipo penal, um tipo específico que defina esses casos como crime”, complementa o advogado e pesquisador Alexandre Atheniense.
Vale pontuar que o combate à desinformação e a regulamentação da inteligência artificial no Brasil é tema de vários projetos de lei que há anos tramitam no Congresso. Os principais são o PL 2.630/2020, também chamado de PL das Fake News; e o PL 2.338/2023, que propõe a regulamentação do uso da inteligência artificial no Brasil. Apesar do número em ascensão de golpes envolvendo IA e desinformação, essas propostas seguem paradas. Em janeiro, o presidente do Senado, Rodrigo Pacheco (PSD-MG) , prometeu que o PL 2.338 (sobre IA), de sua autoria, seria apreciado até abril deste ano.

Regulação sobre desinformação parte do TSE

Sem legislação específica sobre desinformação, deepfakes ou crimes cibernéticos, no Brasil quem regulamenta em primeiro lugar qualquer questão relacionada às plataformas digitais em geral é o Tribunal Superior Eleitoral (TSE) — especificamente para casos relacionados ao processo eleitoral.
“O TSE é um tribunal que tem o poder de regulamentar e de julgar. Quando surgiu a primeira lei vedando o uso de malware e de vírus, partiu do TSE, por exemplo. Esse Tribunal assume um papel protagonista de preocupação e regulamentação de forma rápida, sem ter que passar pelo Congresso.”
– Alexandre Atheniense, advogado especialista em direito digital, ex-presidente da Comissão de Tecnologia da Informação da Ordem dos Advogados do Brasil (OAB) 
Todo ano eleitoral, o TSE realiza audiências públicas para elaborar as resoluções da Corte para o pleito. Em 2022, por exemplo, estabeleceu algumas medidas para enfrentar a desinformação no processo eleitoral, entre elas a proibição de propaganda paga dois dias antes da votação. Em dezembro do ano passado, o Supremo Tribunal Federal (STF) decidiu manter a validade dessa norma do TSE voltada às fakes.
Para o pleito de 2024, foram realizadas entre os dias 23 e 25 de janeiro audiências públicas para debater propostas de atualização da regulamentação do processo eleitoral deste ano. Na ocasião, representantes da Meta e do Google defenderam que a responsabilização pelo impulsionamento de conteúdos desinformativos, incluindo aqueles com uso de IA, deve ser sobre os anunciantes — neste caso, partidos e candidaturas. 
Para quem atua na área, há expectativas de que as resoluções do TSE para as eleições municipais tentem coibir as fakes geradas por IA. Esperamos que o TSE baixe a primeira regulamentação no Brasil contra uso de deepfake”, diz Atheniense. 
Segundo o advogado, embora as normas estabelecidas pelo TSE sejam voltadas para o contexto das eleições, decisões da corte eleitoral podem servir como embasamento para teses adotadas em outras esferas da justiça, como a civil ou criminal. 
LEIA MAIS
Clique aqui para ver como a Lupa faz suas checagens e acessar a política de transparência
A Lupa faz parte do
The trust project
International Fact-Checking Network
A Agência Lupa é membro verificado da International Fact-checking Network (IFCN). Cumpre os cinco princípios éticos estabelecidos pela rede de checadores e passa por auditorias independentes todos os anos.
A Lupa está infringindo esse código? FALE COM A IFCN
Tipo de Conteúdo: Reportagem
Conteúdo investigativo que aborda temas diversos relacionados a desinformação com o objetivo de manter os leitores informados.
Copyright Lupa. Todos os direitos reservados. É proibida a reprodução do conteúdo desta página em qualquer meio de comunicação, eletrônico ou impresso, sem autorização.

Leia também


10.04.2024 - 17h41
Redes Sociais
X acumula embates com governos por falta de transparência e é proibido em 6 países

A extrema-direita vem usando o embate entre o dono do X, Elon Musk, e o ministro do STF Alexandre de Moraes para defender a "liberdade de expressão" diante do que eles chamam de "censura". Alegam que a rede pode ser bloqueada no Brasil e citam exemplos de países que proibiram o acesso. A Lupa elencou a situação do X em outras nações, confira.

Evelin Mendes
09.04.2024 - 11h36
Redes Sociais
Seis vezes que o X abriu brecha para desinformação em suposta defesa da liberdade de expressão

Um ano e meio desde a aquisição do Twitter por Elon Musk, agora chamado X, a rede ganhou a fama de ser o “esgoto da desinformação”. Sob o pretexto da “liberdade de expressão”, Musk permitiu que fakes circulassem livremente pela rede. A Lupa listou seis exemplos de decisões do bilionário que transformaram o X no epicentro de conteúdos falsos.

Carol Macário
06.04.2024 - 08h24
Eleições 2024
Falta de regulação e critérios de remoção de fakes impõem desafios ao TSE a 6 meses da eleição

Reportagem da Lupa mostra que, a 6 meses das eleições municipais, o desafio de estancar a desinformação — diante da falta de regulação pelo Congresso e pela omissão no monitoramento de algumas plataformas — vai exigir ainda mais atenção do TSE. Especialistas criticam ainda critérios que serão adotados para remoção de conteúdos enganosos.

Ítalo Rômany
05.04.2024 - 10h15
Política
Mistura de Páscoa, direito trans e NBA gera pico de 'fakes' nos EUA

Ignorando o fato de que o Dia da Visibilidade Transgênero existe desde 2009, religiosos conservadores usaram acusações falsas para atacar o presidente dos Estados Unidos, Joe Biden, na Páscoa, depois de ele ter manifestado apoio à comunidade trans em um comunicado.

Cristina Tardáguila
04.04.2024 - 15h25
Política
Lula volta a trocar mil por milhões e erra mortes de crianças em Gaza

O presidente Luiz Inácio Lula da Silva (PT) errou ao afirmar que 12,3 milhões de crianças morreram na Faixa de Gaza, em discurso na Conferência Nacional pelos Direitos das Crianças e Adolescentes em Brasília. É falso. Segundo o Fundo das Nações Unidas para a Infância (Unicef), 13,7 mil crianças foram mortas na região desde o início do conflito entre Israel e o Hamas.

Nathallia Fonseca
Lupa © 2024 Todos os direitos reservados
Feito por
Dex01
Meza Digital