UOL - O melhor conteúdo
Lupa
Tecnologias feitas para detectar fotos geradas por IA erram em testes
27.03.2024 - 14h06
Rio de Janeiro - RJ
No dia 11 de março, a princesa de Gales, Kate Middleton, admitiu publicamente a edição digital de uma imagem onde aparece com os filhos, divulgada no dia anterior. A confissão veio após especulações e suspeitas do público e da imprensa especializada, o que, conforme mostraram dados extraídos do Google Trends, gerou um pico de buscas pelo termo “Detect AI Images” (Detectar inteligência artificial em imagens). Entre crises de credibilidade e teorias da conspiração, a confusão envolvendo a coroa britânica destacou a forte presença das manipulações de imagens e o quanto elas podem ser convincentes. 
Atualmente, existem ferramentas de inteligência artificial gratuitas – ou com limite de teste grátis – criadas para identificar se fotografias são reais ou foram feitas por meio de computação. A Lupa testou quatro dessas tecnologias, a AI or Not; Is It AI?; Illuminarty.AI e Maybe's AI Art Detector. Com exceção da primeira, que acertou a origem de todas as 20 imagens testadas, as outras três apresentaram falhas. Os testes mostraram que as plataformas têm dificuldade em identificar tanto as fotos geradas por IA, quanto atestar a veracidade de imagens reais.
A Lupa realizou dois testes distintos, um após o outro, com as plataformas. No primeiro, foi solicitado à ferramenta analisar 10 imagens diferentes, sendo seis criadas por meio de outras inteligências artificiais generativas –  Copilot e This Person Do Not Exist – e outras quatro fotografias reais. Em seguida, um novo teste pediu para que as plataformas analisassem outras 10 fotos, dessa vez, exclusivamente criadas pelo Midjourney. 
Entre as tecnologias avaliadas, apenas a AI or Not utiliza uma dinâmica de 'verdadeiro' ou 'falso' - no caso, “This is likely AI” (Isso provavelmente é uma IA) ou “This is likely Human” (Isso provavelmente é humano). As demais oferecem a chance percentual para que a imagem tenha sido gerada por IA ou por humanos.

AI or Not 

A ferramenta AI or Not foi a única que acertou a origem das 20 imagens analisadas nos testes, reconhecendo imagens verdadeiras e falsas, independentemente de terem sido geradas por três inteligências artificiais diferentes. Ao contrário das outras três ferramentas testadas, que não determinam um número limite de imagens a serem analisadas de forma gratuita, porém, a AI or Not permite que apenas 10 imagens sejam verificadas gratuitamente.
Imagem gerada pelo Midjouney foi analisada corretamente pelo AI or Not

Is It AI?

No primeiro teste, analisando seis imagens falsas e quatro reais, a ferramenta errou em três, apontando que imagens verdadeiras teriam sido criadas por IA. No segundo teste, com 10 fotos geradas por Inteligência Artificial, a ferramenta afirmou que 5 delas seriam reais. 
Imagem criada pelo Midjourney foi analisada como verdadeira pela “Is It Ai?”

Illuminarty.AI

A Illuminarty.AI apresentou o pior desempenho entre as ferramentas testadas. No primeiro teste, que contou com imagens falsas e verdadeiras, o detector acertou a origem de apenas cinco das 10 fotos. Já no reconhecimento das imagens produzidas exclusivamente pelo Midjourney, o desempenho foi ainda pior. Das 10 imagens analisadas, a ferramenta apontou que nove tinham menos de 20% de chance de terem sido geradas por IA. Uma das imagens falsas, por exemplo, chegou a receber 0,6% de probabilidade de ter sido criada por inteligência artificial. 
Outra imagem analisada pela Illuminarty.AI recebeu 43%, o que ainda pode ser considerado um erro da plataforma se utilizarmos o parâmetro de que apenas porcentagens acima de 50% façam conclusões sobre a origem da imagem. 
Illuminarty.AI analisou imagem gerada pelo Midjourney indicando que teria 0,6% de chance de ela ter sido criada por IA

Maybe's AI Art Detector 

No primeiro teste – que levou em consideração seis imagens criadas pelo site This Person Does Not Exist, uma do Copilot e mais quatro imagens reais – a ferramenta Maybe's AI Art Detector alegou que todas as imagens eram verdadeiras. Já no teste com fotos criadas por meio do Midjorney, a plataforma apontou que nove imagens eram reais e apenas uma teria sido gerada por IA. No entanto, em uma dessas nove fotos, a Maybe's AI Art Detector alegou que existia 49% de chance da imagem ter sido criada por inteligência artificial.
As ferramentas testadas trabalham de forma similar em muitos aspectos, mas possuem diferenças que caracterizam a própria tecnologia. Por exemplo, no caso da Is It AI?, o site afirma que a análise das fotografias é feito de forma a identificar “padrões de cores, formas e texturas” e depois os compara com outros padrões “normalmente encontrados em imagens geradas por humanos ou imagens geradas por IA”. Por outro lado, a AI or Not e a Illuminarty.AI apenas dizem que utilizam máquinas de algoritmos avançados para fazer a identificação. 
Imagens falsas receberam alta probabilidade de serem reais pela plataforma de detecção de IA

Como identificar se a imagem foi gerada por inteligência artificial?

Para a pesquisadora de Direito e Inteligência Artificial da Universidade de São Paulo (USP), Sílvia Piva, as técnicas tradicionais de checagem de fatos ainda são o melhor caminho para buscar compreender a origem das imagens que circulam nas redes.
“Acho que é cedo para colocarmos toda a credibilidade nessas ferramentas. Ao mesmo tempo, acho um grande desafio confiar exclusivamente na nossa percepção”, diz a pesquisadora. “A checagem dos fatos nos ajuda porque qualquer informação hoje deve ser verificada se é real ou não. Por isso ela vai ser talvez o nosso maior poder na identificação. Mais até do que o próprio olhar que vai nos enganar muitas vezes”
"Seria temerário a gente achar que essas ferramentas são suficientes para identificar um deep fake, porque a gente precisaria de uma massa de dados muito grande e de treinamento também de imagens feitas por Inteligência Artificial. Acho que a melhor forma de agir hoje não seria confiar 100% na ferramenta, mas talvez uma combinação da ferramenta com a checagem dos fatos", diz Piva.
Segundo o pesquisador do grupo de Tecnologias da Inteligência e Design Digital na PUC-SP, Diogo Cortiz, também consultado pela reportagem, uma das propostas para aumentar a ética e transparência na IA são as marcas d'água. "No processo de criação de uma imagem feita por IA, você coloca uma marca d'água. São mudanças no pixel, invisíveis ao olho humano, mas que a IA consegue perceber e identificar que aquilo foi feito por inteligência artificial". Apesar de estar em fase de testes, Cortiz diz que entende que o processo deve ser implementado a médio prazo. 
Ainda assim, o pesquisador indica que a grande dificuldade tende a ser achar um padrão para colocar esses pixels que marcam as imagens. "Cada imagem é gerada de uma forma. Talvez você consiga fazer isso com o Midjourney, mas aí o Bing funciona de outra forma, OpenAI de outra, a ferramenta da Meta de outra". 
Confira algumas dicas sugeridas por especialistas para identificar imagens produzidas por IA: 
  • Brilho, sombras e iluminação
Fotos produzidas por Inteligência Artificial, especialmente de pessoas, tendem a apresentar um brilho específico, com efeito de suavização que faz com que a pele e superfícies dos objetos pareçam polidas. Muitas vezes, um dos objetos da imagem está em foco e parece realista, mas os elementos no fundo podem não ser nítidos.
  • Rostos e dedos: contornos e continuidade das linhas 
A troca de rostos é o método mais comum de vídeos deep fake. Os especialistas aconselham observar atentamente as bordas do rosto. O tom de pele do rosto combina com o resto da cabeça ou do corpo? As bordas do rosto estão nítidas ou borradas? É comum que imagens de IA ainda não resolvam bem o posicionamento e número de dedos de uma pessoa retratada, o que pode indicar uma produção artificial. 
  • Dentes e sincronia da boca
Confira também os dentes, que podem estar muito claros ou borrados. Isso porque Alguns algoritmos ainda não são sofisticados o suficiente para gerar dentes individuais, que aparecem com frequência sem contorno. No caso de vídeos, observe a boca da pessoa que fala. Em imagens de IA quase sempre os movimentos labiais não acompanham com precisão o áudio de quem fala. 
  • Analise o contexto geral
Dê um tempo para considerar se o que você está vendo é plausível em termos de contexto. Ao ver uma figura pública fazendo algo que parece exagerado, irrealista ou improvável. Você pode estar diante de um deep fake. O caso do Papa Francisco supostamente usando uma jaqueta de luxo é um bom exemplo. Se estivesse, não haveria outras fotos ou vídeos publicados por fontes legítimas?

Impacto nas eleições 

Na visão dos pesquisadores, imagens produzidas ou alteradas por IA devem impactar de forma significativa nas eleições municipais brasileiras deste ano, assim como já têm influenciado pleitos de outros países. É o caso de Argentina e Estados Unidos, por exemplo. "Não vai dar tempo [de encontrar soluções] para este ano, sem dúvida que vai impactar", afirma Diogo Cortiz. 
A gente, hoje, está muito mais no momento de perceber o deep fake como um problema do que de ter uma solução para ele. Vamos ver muita coisa acontecer nos próximos meses das eleições dos Estados Unidos, mas não vamos conseguir evitar alguns estragos esse ano", diz a pesquisadora Silvia Piva. 
Para ela, além de serem utilizadas para confundir o eleitor de maneira intencional, as imagens falsas vão funcionar como "a desculpa perfeita" para justificar discursos contraditórios dos candidatos. "O [Donald] Trump já deu toda a cara de como vai ser ao afirmar que vídeos reais dele foram manipulados. Sabe-se lá se as próprias pessoas não vão produzir deep fakes que melhorem a imagem delas, inclusive já prevendo que outros candidatos opositores vão produzir fakes negativas", especula. 

PL 897/2024

No Congresso e na Câmara, há propostas de regulamentação da Inteligência Artificial no Brasil. A mais recente, o PL 879/2024, é de autoria do deputado Saullo Vianna (União-AM) e propõe, entre outras ações, que todos os conteúdos criados por IA sejam autenticados com marca d'água específica. A proposta foi apensada ao PL 5938/2023,  de Lídice da Mata (PSB-BA), que busca alterar o Marco Civil da Internet. Apesar de reconhecerem a urgência de normas sobre o assunto, especialistas questionam a eficiência do projeto. 
Na visão de Piva, o PL  é apresentado de forma simplista e descontextualizada. "Entendo a intenção e a preocupação, porém está descontextualizado. Muito diferente do que [o PL] quer, que é resolver o problema [da regulamentação da IA], ele na verdade causa mais complicações". 
Para Piva, o projeto precisaria  estar alinhado ao debate maior envolvendo o PL 2630, também conhecido como PL das Fake News. "Não dá para ser uma coisa separada da outra. Isso mostra que talvez tecnicamente a pessoa que fez a redação não saiba das grandes dificuldades técnicas que se tem a respeito disso".

Outro lado

A Lupa contatou os desenvolvedores das ferramentas testadas que apresentaram falhas na identificação da origem das imagens a fim de entender se já existem planos de melhorias. No entanto, até o momento da publicação desta reportagem, as plataformas não retornaram.

Leia mais 


Clique aqui para ver como a Lupa faz suas checagens e acessar a política de transparência
A Lupa faz parte do
The trust project
International Fact-Checking Network
A Agência Lupa é membro verificado da International Fact-checking Network (IFCN). Cumpre os cinco princípios éticos estabelecidos pela rede de checadores e passa por auditorias independentes todos os anos.
A Lupa está infringindo esse código? FALE COM A IFCN
Tipo de Conteúdo: Reportagem
Conteúdo investigativo que aborda temas diversos relacionados a desinformação com o objetivo de manter os leitores informados.
Copyright Lupa. Todos os direitos reservados. É proibida a reprodução do conteúdo desta página em qualquer meio de comunicação, eletrônico ou impresso, sem autorização.

Leia também


10.04.2024 - 17h41
Redes Sociais
X acumula embates com governos por falta de transparência e é proibido em 6 países

A extrema-direita vem usando o embate entre o dono do X, Elon Musk, e o ministro do STF Alexandre de Moraes para defender a "liberdade de expressão" diante do que eles chamam de "censura". Alegam que a rede pode ser bloqueada no Brasil e citam exemplos de países que proibiram o acesso. A Lupa elencou a situação do X em outras nações, confira.

Evelin Mendes
09.04.2024 - 11h36
Redes Sociais
Seis vezes que o X abriu brecha para desinformação em suposta defesa da liberdade de expressão

Um ano e meio desde a aquisição do Twitter por Elon Musk, agora chamado X, a rede ganhou a fama de ser o “esgoto da desinformação”. Sob o pretexto da “liberdade de expressão”, Musk permitiu que fakes circulassem livremente pela rede. A Lupa listou seis exemplos de decisões do bilionário que transformaram o X no epicentro de conteúdos falsos.

Carol Macário
06.04.2024 - 08h24
Eleições 2024
Falta de regulação e critérios de remoção de fakes impõem desafios ao TSE a 6 meses da eleição

Reportagem da Lupa mostra que, a 6 meses das eleições municipais, o desafio de estancar a desinformação — diante da falta de regulação pelo Congresso e pela omissão no monitoramento de algumas plataformas — vai exigir ainda mais atenção do TSE. Especialistas criticam ainda critérios que serão adotados para remoção de conteúdos enganosos.

Ítalo Rômany
05.04.2024 - 10h15
Política
Mistura de Páscoa, direito trans e NBA gera pico de 'fakes' nos EUA

Ignorando o fato de que o Dia da Visibilidade Transgênero existe desde 2009, religiosos conservadores usaram acusações falsas para atacar o presidente dos Estados Unidos, Joe Biden, na Páscoa, depois de ele ter manifestado apoio à comunidade trans em um comunicado.

Cristina Tardáguila
04.04.2024 - 15h25
Política
Lula volta a trocar mil por milhões e erra mortes de crianças em Gaza

O presidente Luiz Inácio Lula da Silva (PT) errou ao afirmar que 12,3 milhões de crianças morreram na Faixa de Gaza, em discurso na Conferência Nacional pelos Direitos das Crianças e Adolescentes em Brasília. É falso. Segundo o Fundo das Nações Unidas para a Infância (Unicef), 13,7 mil crianças foram mortas na região desde o início do conflito entre Israel e o Hamas.

Nathallia Fonseca
Lupa © 2024 Todos os direitos reservados
Feito por
Dex01
Meza Digital