UOL - O melhor conteúdo
Lupa
Tecnologias feitas para detectar fotos geradas por IA erram em testes
27.03.2024 - 14h06
Rio de Janeiro - RJ
No dia 11 de março, a princesa de Gales, Kate Middleton, admitiu publicamente a edição digital de uma imagem onde aparece com os filhos, divulgada no dia anterior. A confissão veio após especulações e suspeitas do público e da imprensa especializada, o que, conforme mostraram dados extraídos do Google Trends, gerou um pico de buscas pelo termo “Detect AI Images” (Detectar inteligência artificial em imagens). Entre crises de credibilidade e teorias da conspiração, a confusão envolvendo a coroa britânica destacou a forte presença das manipulações de imagens e o quanto elas podem ser convincentes. 
Atualmente, existem ferramentas de inteligência artificial gratuitas – ou com limite de teste grátis – criadas para identificar se fotografias são reais ou foram feitas por meio de computação. A Lupa testou quatro dessas tecnologias, a AI or Not; Is It AI?; Illuminarty.AI e Maybe's AI Art Detector. Com exceção da primeira, que acertou a origem de todas as 20 imagens testadas, as outras três apresentaram falhas. Os testes mostraram que as plataformas têm dificuldade em identificar tanto as fotos geradas por IA, quanto atestar a veracidade de imagens reais.
A Lupa realizou dois testes distintos, um após o outro, com as plataformas. No primeiro, foi solicitado à ferramenta analisar 10 imagens diferentes, sendo seis criadas por meio de outras inteligências artificiais generativas –  Copilot e This Person Do Not Exist – e outras quatro fotografias reais. Em seguida, um novo teste pediu para que as plataformas analisassem outras 10 fotos, dessa vez, exclusivamente criadas pelo Midjourney. 
Entre as tecnologias avaliadas, apenas a AI or Not utiliza uma dinâmica de 'verdadeiro' ou 'falso' - no caso, “This is likely AI” (Isso provavelmente é uma IA) ou “This is likely Human” (Isso provavelmente é humano). As demais oferecem a chance percentual para que a imagem tenha sido gerada por IA ou por humanos.

AI or Not 

A ferramenta AI or Not foi a única que acertou a origem das 20 imagens analisadas nos testes, reconhecendo imagens verdadeiras e falsas, independentemente de terem sido geradas por três inteligências artificiais diferentes. Ao contrário das outras três ferramentas testadas, que não determinam um número limite de imagens a serem analisadas de forma gratuita, porém, a AI or Not permite que apenas 10 imagens sejam verificadas gratuitamente.
Imagem gerada pelo Midjouney foi analisada corretamente pelo AI or Not

Is It AI?

No primeiro teste, analisando seis imagens falsas e quatro reais, a ferramenta errou em três, apontando que imagens verdadeiras teriam sido criadas por IA. No segundo teste, com 10 fotos geradas por Inteligência Artificial, a ferramenta afirmou que 5 delas seriam reais. 
Imagem criada pelo Midjourney foi analisada como verdadeira pela “Is It Ai?”

Illuminarty.AI

A Illuminarty.AI apresentou o pior desempenho entre as ferramentas testadas. No primeiro teste, que contou com imagens falsas e verdadeiras, o detector acertou a origem de apenas cinco das 10 fotos. Já no reconhecimento das imagens produzidas exclusivamente pelo Midjourney, o desempenho foi ainda pior. Das 10 imagens analisadas, a ferramenta apontou que nove tinham menos de 20% de chance de terem sido geradas por IA. Uma das imagens falsas, por exemplo, chegou a receber 0,6% de probabilidade de ter sido criada por inteligência artificial. 
Outra imagem analisada pela Illuminarty.AI recebeu 43%, o que ainda pode ser considerado um erro da plataforma se utilizarmos o parâmetro de que apenas porcentagens acima de 50% façam conclusões sobre a origem da imagem. 
Illuminarty.AI analisou imagem gerada pelo Midjourney indicando que teria 0,6% de chance de ela ter sido criada por IA

Maybe's AI Art Detector 

No primeiro teste – que levou em consideração seis imagens criadas pelo site This Person Does Not Exist, uma do Copilot e mais quatro imagens reais – a ferramenta Maybe's AI Art Detector alegou que todas as imagens eram verdadeiras. Já no teste com fotos criadas por meio do Midjorney, a plataforma apontou que nove imagens eram reais e apenas uma teria sido gerada por IA. No entanto, em uma dessas nove fotos, a Maybe's AI Art Detector alegou que existia 49% de chance da imagem ter sido criada por inteligência artificial.
As ferramentas testadas trabalham de forma similar em muitos aspectos, mas possuem diferenças que caracterizam a própria tecnologia. Por exemplo, no caso da Is It AI?, o site afirma que a análise das fotografias é feito de forma a identificar “padrões de cores, formas e texturas” e depois os compara com outros padrões “normalmente encontrados em imagens geradas por humanos ou imagens geradas por IA”. Por outro lado, a AI or Not e a Illuminarty.AI apenas dizem que utilizam máquinas de algoritmos avançados para fazer a identificação. 
Imagens falsas receberam alta probabilidade de serem reais pela plataforma de detecção de IA

Como identificar se a imagem foi gerada por inteligência artificial?

Para a pesquisadora de Direito e Inteligência Artificial da Universidade de São Paulo (USP), Sílvia Piva, as técnicas tradicionais de checagem de fatos ainda são o melhor caminho para buscar compreender a origem das imagens que circulam nas redes.
“Acho que é cedo para colocarmos toda a credibilidade nessas ferramentas. Ao mesmo tempo, acho um grande desafio confiar exclusivamente na nossa percepção”, diz a pesquisadora. “A checagem dos fatos nos ajuda porque qualquer informação hoje deve ser verificada se é real ou não. Por isso ela vai ser talvez o nosso maior poder na identificação. Mais até do que o próprio olhar que vai nos enganar muitas vezes”
"Seria temerário a gente achar que essas ferramentas são suficientes para identificar um deep fake, porque a gente precisaria de uma massa de dados muito grande e de treinamento também de imagens feitas por Inteligência Artificial. Acho que a melhor forma de agir hoje não seria confiar 100% na ferramenta, mas talvez uma combinação da ferramenta com a checagem dos fatos", diz Piva.
Segundo o pesquisador do grupo de Tecnologias da Inteligência e Design Digital na PUC-SP, Diogo Cortiz, também consultado pela reportagem, uma das propostas para aumentar a ética e transparência na IA são as marcas d'água. "No processo de criação de uma imagem feita por IA, você coloca uma marca d'água. São mudanças no pixel, invisíveis ao olho humano, mas que a IA consegue perceber e identificar que aquilo foi feito por inteligência artificial". Apesar de estar em fase de testes, Cortiz diz que entende que o processo deve ser implementado a médio prazo. 
Ainda assim, o pesquisador indica que a grande dificuldade tende a ser achar um padrão para colocar esses pixels que marcam as imagens. "Cada imagem é gerada de uma forma. Talvez você consiga fazer isso com o Midjourney, mas aí o Bing funciona de outra forma, OpenAI de outra, a ferramenta da Meta de outra". 
Confira algumas dicas sugeridas por especialistas para identificar imagens produzidas por IA: 
  • Brilho, sombras e iluminação
Fotos produzidas por Inteligência Artificial, especialmente de pessoas, tendem a apresentar um brilho específico, com efeito de suavização que faz com que a pele e superfícies dos objetos pareçam polidas. Muitas vezes, um dos objetos da imagem está em foco e parece realista, mas os elementos no fundo podem não ser nítidos.
  • Rostos e dedos: contornos e continuidade das linhas 
A troca de rostos é o método mais comum de vídeos deep fake. Os especialistas aconselham observar atentamente as bordas do rosto. O tom de pele do rosto combina com o resto da cabeça ou do corpo? As bordas do rosto estão nítidas ou borradas? É comum que imagens de IA ainda não resolvam bem o posicionamento e número de dedos de uma pessoa retratada, o que pode indicar uma produção artificial. 
  • Dentes e sincronia da boca
Confira também os dentes, que podem estar muito claros ou borrados. Isso porque Alguns algoritmos ainda não são sofisticados o suficiente para gerar dentes individuais, que aparecem com frequência sem contorno. No caso de vídeos, observe a boca da pessoa que fala. Em imagens de IA quase sempre os movimentos labiais não acompanham com precisão o áudio de quem fala. 
  • Analise o contexto geral
Dê um tempo para considerar se o que você está vendo é plausível em termos de contexto. Ao ver uma figura pública fazendo algo que parece exagerado, irrealista ou improvável. Você pode estar diante de um deep fake. O caso do Papa Francisco supostamente usando uma jaqueta de luxo é um bom exemplo. Se estivesse, não haveria outras fotos ou vídeos publicados por fontes legítimas?

Impacto nas eleições 

Na visão dos pesquisadores, imagens produzidas ou alteradas por IA devem impactar de forma significativa nas eleições municipais brasileiras deste ano, assim como já têm influenciado pleitos de outros países. É o caso de Argentina e Estados Unidos, por exemplo. "Não vai dar tempo [de encontrar soluções] para este ano, sem dúvida que vai impactar", afirma Diogo Cortiz. 
A gente, hoje, está muito mais no momento de perceber o deep fake como um problema do que de ter uma solução para ele. Vamos ver muita coisa acontecer nos próximos meses das eleições dos Estados Unidos, mas não vamos conseguir evitar alguns estragos esse ano", diz a pesquisadora Silvia Piva. 
Para ela, além de serem utilizadas para confundir o eleitor de maneira intencional, as imagens falsas vão funcionar como "a desculpa perfeita" para justificar discursos contraditórios dos candidatos. "O [Donald] Trump já deu toda a cara de como vai ser ao afirmar que vídeos reais dele foram manipulados. Sabe-se lá se as próprias pessoas não vão produzir deep fakes que melhorem a imagem delas, inclusive já prevendo que outros candidatos opositores vão produzir fakes negativas", especula. 

PL 897/2024

No Congresso e na Câmara, há propostas de regulamentação da Inteligência Artificial no Brasil. A mais recente, o PL 879/2024, é de autoria do deputado Saullo Vianna (União-AM) e propõe, entre outras ações, que todos os conteúdos criados por IA sejam autenticados com marca d'água específica. A proposta foi apensada ao PL 5938/2023,  de Lídice da Mata (PSB-BA), que busca alterar o Marco Civil da Internet. Apesar de reconhecerem a urgência de normas sobre o assunto, especialistas questionam a eficiência do projeto. 
Na visão de Piva, o PL  é apresentado de forma simplista e descontextualizada. "Entendo a intenção e a preocupação, porém está descontextualizado. Muito diferente do que [o PL] quer, que é resolver o problema [da regulamentação da IA], ele na verdade causa mais complicações". 
Para Piva, o projeto precisaria  estar alinhado ao debate maior envolvendo o PL 2630, também conhecido como PL das Fake News. "Não dá para ser uma coisa separada da outra. Isso mostra que talvez tecnicamente a pessoa que fez a redação não saiba das grandes dificuldades técnicas que se tem a respeito disso".

Outro lado

A Lupa contatou os desenvolvedores das ferramentas testadas que apresentaram falhas na identificação da origem das imagens a fim de entender se já existem planos de melhorias. No entanto, até o momento da publicação desta reportagem, as plataformas não retornaram.

Leia mais 


Clique aqui para ver como a Lupa faz suas checagens e acessar a política de transparência
A Lupa faz parte do
The trust project
International Fact-Checking Network
A Agência Lupa é membro verificado da International Fact-checking Network (IFCN). Cumpre os cinco princípios éticos estabelecidos pela rede de checadores e passa por auditorias independentes todos os anos.
A Lupa está infringindo esse código? FALE COM A IFCN
Tipo de Conteúdo: Reportagem
Conteúdo investigativo que aborda temas diversos relacionados a desinformação com o objetivo de manter os leitores informados.
Copyright Lupa. Todos os direitos reservados. É proibida a reprodução do conteúdo desta página em qualquer meio de comunicação, eletrônico ou impresso, sem autorização.

Leia também


18.09.2024 - 18h04
Eleições 2024
Anúncios ilegais de bonés ‘M de Marçal’ contrariam TSE e seguem ativos

Três semanas depois de a Lupa ter denunciado anúncios ilegais de bonés de Pablo Marçal, a Meta segue lucrando com conteúdos patrocinados de vendas de produtos de apoio à candidatura do influenciador. A prática viola as regras da Justiça Eleitoral e vai contra nova norma do TSE que proíbe a comercialização de itens que beneficiam candidatos.

Carol Macário
16.09.2024 - 18h11
Eleições 2024
'Cadeirada' de Datena reacende fakes e vira até propaganda eleitoral paga de candidatos

A 'cadeirada' de Datena em Pablo Marçal no debate da TV Cultura gerou uma série de reações nas redes. O assunto rapidamente virou meme, com muitos perfis zombando do quadro clínico de Marçal e chamando o episódio de 'fakeada 2.0'. O ocorrido também foi usado por candidatos para promover suas campanhas com anúncios pagos na biblioteca da Meta.

Carol Macário
16.09.2024 - 10h00
Eleições 2024
Em São Paulo, PCC vira arma política e mensagens que ligam candidatos ao crime chegam a mais de 600 mil pessoas

Levantamento da Lupa aponta que mensagens associando candidatos à prefeitura de São Paulo ao PCC já alcançaram mais de 600 mil pessoas. Em grupos de WhatsApp e Telegram, conteúdos ligando a facção a políticos, como Pablo Marçal e Guilherme Boulos, têm influenciado o debate eleitoral.

Cristina Tardáguila
13.09.2024 - 10h18
Eleições 2024
Prefeitura do Rio: Central 1746 recebeu 3 milhões de chamados desde 2021; veja as principais demandas dos cidadãos

A Central de Atendimento 1746 da Prefeitura do Rio de Janeiro registrou cerca de 3 milhões de solicitações entre janeiro de 2021 e o primeiro quadrimestre de 2024. Dez dos 164 bairros concentram cerca de 30% da demanda por serviços municipais. Levantamento da Lupa mostra quais as principais demandas dos cidadãos.

Francisco Amorim
09.09.2024 - 19h00
Eleições 2024
Candidato do PL paga por post misógino contra Anielle como propaganda eleitoral

O candidato a vereador do Rio de Janeiro pelo Partido Liberal (PL), Professor Paschoal, impulsinou no Instagram e Facebook uma propaganda eleitoral de cunho misógino contra a ministra da Igualdade Racial Anielle Franco, com alusão a caso de assédio sexual e morte de sua irmã, Marielle Franco.

Gabriela Soares
Lupa © 2024 Todos os direitos reservados
Feito por
Dex01
Meza Digital