UOL - O melhor conteúdo
Lupa
Como a IA poderia enfraquecer — ou salvar — o jornalismo local
15.02.2024 - 13h45
Rio de Janeiro - RJ
As respostas a 4 perguntas podem moldar o resultado dos efeitos da inteligência artificial na esfera do jornalismo e notícias locais

Este artigo é uma adaptação do artigo original de Steven Waldman, publicado no Poynter.  

Será que a inteligência artificial vai minar ainda mais o setor fragilizado do jornalismo local – ou salvá-lo? Uma audiência no Congresso [dos EUA] em janeiro destacou ambos os cenários. Claro, a resposta, como sempre, é... depende de como reagimos.
Aqui estão algumas perguntas que podem moldar o resultado – encerrando com uma modesta proposta de como as empresas de IA podem ser os heróis em vez dos vilões na história do jornalismo local.
Em desertos de notícias, o que treinará os modelos de IA?
Muitos modelos de IA amplamente utilizados atualmente são grandes modelos de linguagem, o que significa que, para funcionarem bem, precisam treinar em enormes quantidades de dados. Isso é um problema para as notícias locais, onde as palavras da moda são "desertos de notícias" e "jornais fantasma". Quando a IA generativa direciona seu olhar faminto para dados locais, encontrará ecossistemas de "pequenas linguagens".
Motores de IA generativa não lidarão bem com essa decepção.
Um estudo sobre as eleições na Suíça e Alemanha descobriu que "um terço das respostas do Bing Chat a perguntas relacionadas a eleições continha erros factuais. Os erros incluíam datas de eleições erradas, candidatos desatualizados ou até mesmo controvérsias inventadas sobre candidatos". Os problemas pareciam piores no nível local: "Ao ser perguntado sobre candidatos de cantões específicos, o chatbot respondeu corretamente em pouquíssimos casos... Chatbots geralmente não são adequados para se adaptar ao contexto ou linguagem locais." Um prefeito local na Austrália processou a OpenAI, criadora do ChatGPT, quando o chatbot declarou, falsamente, que ele havia sido condenado por suborno.
Para ser eficaz, a IA precisa de muito mais dados do que os motores de busca convencionais. Mesmo em regiões com poucas notícias (ao contrário de desertos totais) isso pode simplesmente não existir. Então, essas comunidades – que costumam ser mais rurais e mais pobres – acabarão com serviços de IA de qualidade inferior e mais desinformação.
Talvez os serviços de IA respeitáveis admitam quando não têm informações de qualidade suficiente e educadamente se recusem a fornecer respostas. Mas suspeito que a pressão para produzir conteúdo localizado útil os levará a vasculhar sites locais como NextDoor e Reddit. O que acontece então?
Quem fiscalizará os usos nefastos da IA no nível local?
Há muitas maneiras pelas quais a IA pode ajudar a melhorar o funcionamento do jornalismo. Mas a tecnologia também tornará muito fácil para atores mal-intencionados fabricar notícias locais credíveis que o público terá dificuldade em distinguir fato de ficção.
Em um artigo da The Atlantic chamado "A oferta de desinformação em breve será infinita", a pesquisadora de IA Renée DiResta escreveu: "Em países ao redor do mundo, campanhas coordenadas de propaganda impressa e também em mídias sociais semearam agitação social, reduziram as taxas de vacinação e promoveram até violência étnica. Agora imagine o que acontece quando as fontes de tais postagens são não-rastreáveis e a oferta é essencialmente infinita."
Na primária de New Hampshire, um robocall [atendente robô] com uma voz gerada por IA que parecia exatamente com a de Joe Biden disse aos democratas para não votarem na primária. Isso provavelmente é apenas uma amostra do que está por vir em 2024. Jocelyn Benson, secretária de estado de Michigan, escreveu: "O conteúdo gerado por IA pode intensificar a credibilidade de desinformação altamente localizada... Aqueles que buscam influenciar resultados ou semear o caos podem empregar ferramentas de IA para enganar os eleitores sobre tempos de espera, fechamentos ou até violência em locais de votação específicos."
Em 2016, os russos conseguiram enganar milhões apenas criando gráficos e memes com aparência real. Agora, atores mal-intencionados podem conjurar vídeos de verdadeiros apresentadores de notícias locais ou sintéticos críveis para entoar, com sobrancelhas perfeitamente franzidas, falsidades completas. Um grupo de estudantes do ensino médio criou um vídeo em que um diretor de uma escola secundária é colocado dizendo coisas horrivelmente racistas.
Então, não é difícil imaginar que os Proud Boys poderiam criar uma transmissão falsa de notícias, usando apresentadores locais confiáveis, dizendo que os residentes negros estão saqueando o centro da cidade – ou que anarquistas poderiam inventar um "relatório" de que a polícia está atacando manifestantes.
Abaixo está uma captura de tela de um vídeo promocional recente da Channel1.ai, que está inovando no uso de apresentadores de notícias gerados por IA e outras características.
Um vídeo promocional da Channel1.ai, que apresenta uma mistura de pessoas reais e falsas em um telejornal parcialmente gerado por IA. Crédito: Channel1.ai
Essa imagem apresenta uma mistura de pessoas reais e falsas (a mulher no canto inferior esquerdo é real, acredito; a apresentadora não é). A Channel1.ai as rotulou adequadamente. Agora, imagine a mesma tecnologia nas mãos do Estado Islâmico ou de um sociopata local.
A IA generativa também piorará o surgimento de sites de notícias locais falsos. Já temos mais de mil desses sites enganosos que foram criados para se parecer com meios de comunicação locais tradicionais enquanto secretamente promovem conteúdo comprado por ativistas partidários. A Newsguard já identificou 631 sites de "notícias geradas por IA e que não são confiáveis".
Enquanto isso, os serviços de IA vez ou outras irão atribuir alucinações a veículos de mídia reais. Em sua ação judicial  contra o ChatGPT, o The New York Times afirmou:
"Em resposta a uma pergunta sobre quais são, segundo o The New York Times, 'os 15 alimentos mais saudáveis para comer'... o Bing Chat identificou 15 alimentos saudáveis para o coração "de acordo com o artigo que você forneceu", incluindo "vinho tinto (com moderação)". Na verdade, o artigo do Times não forneceu uma lista de alimentos saudáveis para o coração e nem sequer mencionou 12 dos 15 alimentos identificados pelo Bing Chat (incluindo o vinho tinto)."
A disseminação de informações falsas provavelmente resultará no que os estudiosos chamam de "dividendo do mentiroso" – a ideia de que a IA prejudicará tanto nossa capacidade de discernir fato de fantasia que vamos jogar a toalha. Políticos se aproveitarão disso. Donald Trump afirmou recentemente que um comercial feito com trechos de vídeo reais dele era uma criação de IA. Muitos acharão fácil acreditar nisso. Como Eric Schmidt e Jonathan Haidt escreveram para a The Atlantic, "quanto maior o volume de deepfakes introduzidas na circulação (incluindo as aparentemente inofensivas, como a do Papa), mais o público hesitará em confiar em qualquer coisa. As pessoas estarão muito mais livres para acreditar no que quiserem."
Não, isso não é apenas pânico moral promovido por empresas de mídia tradicionais antiquadas. Um estudo com milhares de pesquisadores de IA descobriu que 86% tinham uma preocupação "substancial" ou "extrema" com a "propagação de informações falsas, por exemplo, deepfakes", e 79% se preocupavam com a "manipulação de tendências de opinião pública em grande escala".
Quando deepfakes são introduzidas no sistema de notícias nacional, haverá pelo menos alguns detetives para apontá-los. Mas, o que acontece quando esses problemas são introduzidos em uma cidade com um jornal fantasma? Quem rastreará e refutará as deepfakes?
A única reforma com a qual todos concordam, de modo geral, é uma melhor "marca d'água" ou transparência sobre  uma peça de conteúdo quando ela é "sintética". Por que isso ainda não aconteceu?
A IA matou os cliques?
Quando você faz uma pergunta ao ChatGPT, ele fornece uma resposta – não fornece links onde você pode ir para encontrar a resposta. Esse fato básico tem enormes implicações para os modelos de negócios das organizações de notícias locais (e todas as mídias).
Na era pré-IA, as empresas de tecnologia argumentavam que, embora seus robôs rastreassem sites de notícias e exibissem manchetes, isso também era bom para os veículos, pois estavam recebendo tráfego. A troca de valor nunca foi tão justa quanto afirmavam o Google e o Facebook – muitos usuários obtinham informações apenas das manchetes, em vez de clicar completamente – mas os veículos de notícias recebiam bilhões de visitas por meio desses links.
Mesmo antes da IA, o Google estava se movendo na direção de fornecer respostas variadas na primeira página de resultados de pesquisa. A "caixa de conhecimento", "caixa de resposta direta" e as seções de "as pessoas também perguntam" fornecem trechos significativos projetados para responder completamente à pergunta de um leitor. Como resultado, uma porcentagem menor de pesquisas leva a cliques. De acordo com um estudo do analista da indústria Rand Fishkin, 64,82% das pesquisas no Google terminaram sem um clique (um aumento de 50% em 2019).
O Google não foi o único a impulsionar essa tendência. Siri e Alexa se esforçam para fornecer respostas, não links. Instagram e TikTok diminuem o uso de links de saída. O Facebook alterou seus algoritmos para reduzir a exposição e, portanto, os cliques, nas notícias.
Muito provavelmente, a IA generativa vai agravar esse problema. O Wall Street Journal relatou que "veículos viram o suficiente para estimar que perderão entre 20% e 40% do tráfego gerado pelo Google se algo semelhante às iterações recentes (de IA) for lançado". A pesquisa impulsionada pela IA se esforça para fornecer a única e definitiva resposta ali mesmo. A Perplexity, uma startup que tenta  desbancar o Google, reconhece que se deparar com uma variedade de links é algo ruim: "Se você puder responder diretamente à pergunta de alguém, ninguém precisa desses 10 links azuis", disse o CEO Aravind Srinivas.
Bem, ninguém exceto os veículos de notícias. Se os cliques desaparecerem, o que substituirá esse tráfego e sua receita correspondente? Será que as  empresas de IA podem ser persuadidas a mudar de rumo e enfatizar o fornecimento de tráfego para fontes de notícias locais?
  • Nota do editor: ao longo do artigo, você encontra os links para que possa também conhecer os textos e os bancos de dados oficiais e ler por conta própria. A maioria não leva ao site da Lupa, o que reafirma nosso compromisso com a transparência das fontes de informação jornalísticas e científicas

Raphael Kapa, editor do texto

As empresas de tecnologia obterão permissão ou compensação dos veículos pelo uso de conteúdo?
Em seu processo contra a OpenAI e a Microsoft, o The New York Times descreveu a IA generativa como "Um Modelo de Negócios Baseado em Infração Massiva de Direitos Autorais". É verdade que, para treinar seus sistemas, os modelos de IA generativa absorveram grandes quantidades de conteúdo sem notificar ou compensar os veículos. Quando ferramentas impulsionadas por IA fornecem conteúdo, às vezes copiam grandes blocos de texto de artigos de notícias e produzem material que concorre com os jornais.
O processo do Times oferece diversos exemplos. E em uma audiência recente no Congresso [dos EUA], o CEO da National Association of Broadcasters (NAB) disse que estão vendo histórias sendo copiadas de programas de notícias locais de TV. "Quando uma conhecida plataforma de IA foi recentemente solicitada a fornecer as últimas 'notícias' em Parkersburg, em West Virginia, gerou respostas copiadas quase palavra por palavra do site da WTAP-TV", disse Curtis LeGeyt da NAB. "O canal não concedeu permissão para o uso desse conteúdo, nem mesmo foi informado sobre isso."
Os provedores de IA generativa argumentam que todo o material se enquadra nas partes de "uso justo" da lei de direitos autorais, porque estão "transformando" o material subjacente e, portanto, criando novo conteúdo distinto. Curiosamente, eles afirmam que os casos de imitação são erros e que as plataformas de IA farão um trabalho melhor no futuro.
[...]
Mas, seja qual for o caso, a pergunta permanece: as empresas de tecnologia pagarão pelos produtos que estão usando para treinar seus modelos? Pagarão pelo conteúdo que usam nos resultados de suas consultas? Se não, por que não? Como será justa a troca de valor?
* Steven Waldman é presidente da Rebuild Local News e co-fundador da Report for America
Clique aqui para ver como a Lupa faz suas checagens e acessar a política de transparência
A Lupa faz parte do
The trust project
International Fact-Checking Network
A Agência Lupa é membro verificado da International Fact-checking Network (IFCN). Cumpre os cinco princípios éticos estabelecidos pela rede de checadores e passa por auditorias independentes todos os anos.
A Lupa está infringindo esse código? FALE COM A IFCN
Tipo de Conteúdo: Artigos
Copyright Lupa. Todos os direitos reservados. É proibida a reprodução do conteúdo desta página em qualquer meio de comunicação, eletrônico ou impresso, sem autorização.
Veja mais
FactCheckLab
#SóQueNão
Oficina de checagem
Teen Fact-checking Network
Dúvido, logo penso
Lupa © 2024 Todos os direitos reservados
Feito por
Dex01
Meza Digital