UOL - O melhor conteúdo
Lupa
Tecnologias feitas para detectar fotos geradas por IA erram em testes
27.03.2024 - 14h06
Rio de Janeiro - RJ
No dia 11 de março, a princesa de Gales, Kate Middleton, admitiu publicamente a edição digital de uma imagem onde aparece com os filhos, divulgada no dia anterior. A confissão veio após especulações e suspeitas do público e da imprensa especializada, o que, conforme mostraram dados extraídos do Google Trends, gerou um pico de buscas pelo termo “Detect AI Images” (Detectar inteligência artificial em imagens). Entre crises de credibilidade e teorias da conspiração, a confusão envolvendo a coroa britânica destacou a forte presença das manipulações de imagens e o quanto elas podem ser convincentes. 
Atualmente, existem ferramentas de inteligência artificial gratuitas – ou com limite de teste grátis – criadas para identificar se fotografias são reais ou foram feitas por meio de computação. A Lupa testou quatro dessas tecnologias, a AI or Not; Is It AI?; Illuminarty.AI e Maybe's AI Art Detector. Com exceção da primeira, que acertou a origem de todas as 20 imagens testadas, as outras três apresentaram falhas. Os testes mostraram que as plataformas têm dificuldade em identificar tanto as fotos geradas por IA, quanto atestar a veracidade de imagens reais.
A Lupa realizou dois testes distintos, um após o outro, com as plataformas. No primeiro, foi solicitado à ferramenta analisar 10 imagens diferentes, sendo seis criadas por meio de outras inteligências artificiais generativas –  Copilot e This Person Do Not Exist – e outras quatro fotografias reais. Em seguida, um novo teste pediu para que as plataformas analisassem outras 10 fotos, dessa vez, exclusivamente criadas pelo Midjourney. 
Entre as tecnologias avaliadas, apenas a AI or Not utiliza uma dinâmica de 'verdadeiro' ou 'falso' - no caso, “This is likely AI” (Isso provavelmente é uma IA) ou “This is likely Human” (Isso provavelmente é humano). As demais oferecem a chance percentual para que a imagem tenha sido gerada por IA ou por humanos.

AI or Not 

A ferramenta AI or Not foi a única que acertou a origem das 20 imagens analisadas nos testes, reconhecendo imagens verdadeiras e falsas, independentemente de terem sido geradas por três inteligências artificiais diferentes. Ao contrário das outras três ferramentas testadas, que não determinam um número limite de imagens a serem analisadas de forma gratuita, porém, a AI or Not permite que apenas 10 imagens sejam verificadas gratuitamente.
Imagem gerada pelo Midjouney foi analisada corretamente pelo AI or Not

Is It AI?

No primeiro teste, analisando seis imagens falsas e quatro reais, a ferramenta errou em três, apontando que imagens verdadeiras teriam sido criadas por IA. No segundo teste, com 10 fotos geradas por Inteligência Artificial, a ferramenta afirmou que 5 delas seriam reais. 
Imagem criada pelo Midjourney foi analisada como verdadeira pela “Is It Ai?”

Illuminarty.AI

A Illuminarty.AI apresentou o pior desempenho entre as ferramentas testadas. No primeiro teste, que contou com imagens falsas e verdadeiras, o detector acertou a origem de apenas cinco das 10 fotos. Já no reconhecimento das imagens produzidas exclusivamente pelo Midjourney, o desempenho foi ainda pior. Das 10 imagens analisadas, a ferramenta apontou que nove tinham menos de 20% de chance de terem sido geradas por IA. Uma das imagens falsas, por exemplo, chegou a receber 0,6% de probabilidade de ter sido criada por inteligência artificial. 
Outra imagem analisada pela Illuminarty.AI recebeu 43%, o que ainda pode ser considerado um erro da plataforma se utilizarmos o parâmetro de que apenas porcentagens acima de 50% façam conclusões sobre a origem da imagem. 
Illuminarty.AI analisou imagem gerada pelo Midjourney indicando que teria 0,6% de chance de ela ter sido criada por IA

Maybe's AI Art Detector 

No primeiro teste – que levou em consideração seis imagens criadas pelo site This Person Does Not Exist, uma do Copilot e mais quatro imagens reais – a ferramenta Maybe's AI Art Detector alegou que todas as imagens eram verdadeiras. Já no teste com fotos criadas por meio do Midjorney, a plataforma apontou que nove imagens eram reais e apenas uma teria sido gerada por IA. No entanto, em uma dessas nove fotos, a Maybe's AI Art Detector alegou que existia 49% de chance da imagem ter sido criada por inteligência artificial.
As ferramentas testadas trabalham de forma similar em muitos aspectos, mas possuem diferenças que caracterizam a própria tecnologia. Por exemplo, no caso da Is It AI?, o site afirma que a análise das fotografias é feito de forma a identificar “padrões de cores, formas e texturas” e depois os compara com outros padrões “normalmente encontrados em imagens geradas por humanos ou imagens geradas por IA”. Por outro lado, a AI or Not e a Illuminarty.AI apenas dizem que utilizam máquinas de algoritmos avançados para fazer a identificação. 
Imagens falsas receberam alta probabilidade de serem reais pela plataforma de detecção de IA

Como identificar se a imagem foi gerada por inteligência artificial?

Para a pesquisadora de Direito e Inteligência Artificial da Universidade de São Paulo (USP), Sílvia Piva, as técnicas tradicionais de checagem de fatos ainda são o melhor caminho para buscar compreender a origem das imagens que circulam nas redes.
“Acho que é cedo para colocarmos toda a credibilidade nessas ferramentas. Ao mesmo tempo, acho um grande desafio confiar exclusivamente na nossa percepção”, diz a pesquisadora. “A checagem dos fatos nos ajuda porque qualquer informação hoje deve ser verificada se é real ou não. Por isso ela vai ser talvez o nosso maior poder na identificação. Mais até do que o próprio olhar que vai nos enganar muitas vezes”
"Seria temerário a gente achar que essas ferramentas são suficientes para identificar um deep fake, porque a gente precisaria de uma massa de dados muito grande e de treinamento também de imagens feitas por Inteligência Artificial. Acho que a melhor forma de agir hoje não seria confiar 100% na ferramenta, mas talvez uma combinação da ferramenta com a checagem dos fatos", diz Piva.
Segundo o pesquisador do grupo de Tecnologias da Inteligência e Design Digital na PUC-SP, Diogo Cortiz, também consultado pela reportagem, uma das propostas para aumentar a ética e transparência na IA são as marcas d'água. "No processo de criação de uma imagem feita por IA, você coloca uma marca d'água. São mudanças no pixel, invisíveis ao olho humano, mas que a IA consegue perceber e identificar que aquilo foi feito por inteligência artificial". Apesar de estar em fase de testes, Cortiz diz que entende que o processo deve ser implementado a médio prazo. 
Ainda assim, o pesquisador indica que a grande dificuldade tende a ser achar um padrão para colocar esses pixels que marcam as imagens. "Cada imagem é gerada de uma forma. Talvez você consiga fazer isso com o Midjourney, mas aí o Bing funciona de outra forma, OpenAI de outra, a ferramenta da Meta de outra". 
Confira algumas dicas sugeridas por especialistas para identificar imagens produzidas por IA: 
  • Brilho, sombras e iluminação
Fotos produzidas por Inteligência Artificial, especialmente de pessoas, tendem a apresentar um brilho específico, com efeito de suavização que faz com que a pele e superfícies dos objetos pareçam polidas. Muitas vezes, um dos objetos da imagem está em foco e parece realista, mas os elementos no fundo podem não ser nítidos.
  • Rostos e dedos: contornos e continuidade das linhas 
A troca de rostos é o método mais comum de vídeos deep fake. Os especialistas aconselham observar atentamente as bordas do rosto. O tom de pele do rosto combina com o resto da cabeça ou do corpo? As bordas do rosto estão nítidas ou borradas? É comum que imagens de IA ainda não resolvam bem o posicionamento e número de dedos de uma pessoa retratada, o que pode indicar uma produção artificial. 
  • Dentes e sincronia da boca
Confira também os dentes, que podem estar muito claros ou borrados. Isso porque Alguns algoritmos ainda não são sofisticados o suficiente para gerar dentes individuais, que aparecem com frequência sem contorno. No caso de vídeos, observe a boca da pessoa que fala. Em imagens de IA quase sempre os movimentos labiais não acompanham com precisão o áudio de quem fala. 
  • Analise o contexto geral
Dê um tempo para considerar se o que você está vendo é plausível em termos de contexto. Ao ver uma figura pública fazendo algo que parece exagerado, irrealista ou improvável. Você pode estar diante de um deep fake. O caso do Papa Francisco supostamente usando uma jaqueta de luxo é um bom exemplo. Se estivesse, não haveria outras fotos ou vídeos publicados por fontes legítimas?

Impacto nas eleições 

Na visão dos pesquisadores, imagens produzidas ou alteradas por IA devem impactar de forma significativa nas eleições municipais brasileiras deste ano, assim como já têm influenciado pleitos de outros países. É o caso de Argentina e Estados Unidos, por exemplo. "Não vai dar tempo [de encontrar soluções] para este ano, sem dúvida que vai impactar", afirma Diogo Cortiz. 
A gente, hoje, está muito mais no momento de perceber o deep fake como um problema do que de ter uma solução para ele. Vamos ver muita coisa acontecer nos próximos meses das eleições dos Estados Unidos, mas não vamos conseguir evitar alguns estragos esse ano", diz a pesquisadora Silvia Piva. 
Para ela, além de serem utilizadas para confundir o eleitor de maneira intencional, as imagens falsas vão funcionar como "a desculpa perfeita" para justificar discursos contraditórios dos candidatos. "O [Donald] Trump já deu toda a cara de como vai ser ao afirmar que vídeos reais dele foram manipulados. Sabe-se lá se as próprias pessoas não vão produzir deep fakes que melhorem a imagem delas, inclusive já prevendo que outros candidatos opositores vão produzir fakes negativas", especula. 

PL 897/2024

No Congresso e na Câmara, há propostas de regulamentação da Inteligência Artificial no Brasil. A mais recente, o PL 879/2024, é de autoria do deputado Saullo Vianna (União-AM) e propõe, entre outras ações, que todos os conteúdos criados por IA sejam autenticados com marca d'água específica. A proposta foi apensada ao PL 5938/2023,  de Lídice da Mata (PSB-BA), que busca alterar o Marco Civil da Internet. Apesar de reconhecerem a urgência de normas sobre o assunto, especialistas questionam a eficiência do projeto. 
Na visão de Piva, o PL  é apresentado de forma simplista e descontextualizada. "Entendo a intenção e a preocupação, porém está descontextualizado. Muito diferente do que [o PL] quer, que é resolver o problema [da regulamentação da IA], ele na verdade causa mais complicações". 
Para Piva, o projeto precisaria  estar alinhado ao debate maior envolvendo o PL 2630, também conhecido como PL das Fake News. "Não dá para ser uma coisa separada da outra. Isso mostra que talvez tecnicamente a pessoa que fez a redação não saiba das grandes dificuldades técnicas que se tem a respeito disso".

Outro lado

A Lupa contatou os desenvolvedores das ferramentas testadas que apresentaram falhas na identificação da origem das imagens a fim de entender se já existem planos de melhorias. No entanto, até o momento da publicação desta reportagem, as plataformas não retornaram.

Leia mais 


Clique aqui para ver como a Lupa faz suas checagens e acessar a política de transparência
A Lupa faz parte do
The trust project
International Fact-Checking Network
A Agência Lupa é membro verificado da International Fact-checking Network (IFCN). Cumpre os cinco princípios éticos estabelecidos pela rede de checadores e passa por auditorias independentes todos os anos.
A Lupa está infringindo esse código? FALE COM A IFCN
Tipo de Conteúdo: Reportagem
Conteúdo investigativo que aborda temas diversos relacionados a desinformação com o objetivo de manter os leitores informados.
Copyright Lupa. Todos os direitos reservados. É proibida a reprodução do conteúdo desta página em qualquer meio de comunicação, eletrônico ou impresso, sem autorização.

Leia também


24.06.2025 - 08h00
Global Fact-Checking Summit
Rio sedia evento mundial de checagem de fatos com presença dos ministros do STF

A partir desta quarta-feira (25), o Rio de Janeiro recebe o Global Fact 2025, o maior evento mundial dedicado ao combate à desinformação. O encontro reúne checadores de diversos países para discutir os desafios do setor e apresentar soluções inovadoras. Os ministros do STF Alexandre de Moraes e Cármen Lúcia estão entre os participantes do evento.

João Pedro Capobianco
23.06.2025 - 12h00
Observatório Lupa
Falso SAC, deepfake e marcas são armas em golpes, mostra estudo da Lupa

Relatório inédito da Lupa revela que golpes digitais estão mais sofisticados, com o uso de inteligência artificial, deepfakes, marcas famosas e linguagem emocional. O estudo que inaugura o Observatório da Lupa, mostra que esses esquemas se organizam como campanhas de marketing para espalhar desinformação.

Gabriela Soares
17.06.2025 - 12h32
Marketing antiético
Influenciadores lucram ensinando crimes digitais enquanto redes falham na moderação

 Influenciadores ensinam abertamente como aplicar golpes digitais, com apoio de fóruns pagos e em plataformas como YouTube e TikTok. Em vídeos com centenas de visualizações, ensinam como usar deepfakes, sites falsos e promessas milagrosas para enganar consumidores. Enquanto isso, as big techs falham em conter o avanço do marketing fraudulento.


Gabriela Soares
03.06.2025 - 18h40
Marco Civil da Internet
STF volta a julgar responsabilização das big techs em meio a ameaças de sanção a Moraes

O Supremo Tribunal Federal (STF) retoma, nesta quarta-feira (4), o julgamento que pode declarar inconstitucional o artigo 19 do Marco Civil da Internet, que trata da responsabilidade de provedores de serviços online sobre conteúdos de terceiros. A retomada ocorre em meio às ameaças de sanção dos EUA ao ministro Alexandre de Moraes.

João Pedro Capobianco
30.05.2025 - 16h37
Política
Ofensas a Marina Silva saem do Senado e ganham apps de mensagem

Na última terça-feira (27), a ministra do Meio Ambiente, Marina Silva, foi alvo de ofensas durante uma audiência na Comissão de Infraestrutura do Senado Federal. O ataque de senadores deu vazão a novos xingamentos à ministra em aplicativos de mensagem.

João Pedro Capobianco
Women Owned
Assine nossa newsletter
sobre desinformação
Acompanhe nossas redes
Lupa © 2025 Todos os direitos reservados
Feito por
Dex01
Meza Digital