UOL - O melhor conteúdo
Lupa
"Inovação na IA seguirá melhor com regulação", diz pesquisadora
12.08.2024 - 10h54
Rio de Janeiro - RJ
“Esse é um desafio que temos enfrentado: superar a falsa dicotomia entre regulação e inovação. Pelo contrário, a inovação na IA seguirá muito melhor com uma regulação bem construída”. É o que argumenta Fernanda Rodrigues, coordenadora de pesquisa do Instituto de Referência em Internet e Sociedade (IRIS-BH) na segunda entrevista da série IA na Educação, que traz as diferentes visões de especialistas sobre o tema no Brasil.  
Em conversa com a Lupa, Rodrigues falou sobre a necessidade de preparo de estudantes e educadores para lidar com a IA, dentro e fora de sala de aula, reforçando que o critério deve ser a avaliação da necessidade de uso. Também defendeu o avanço do Projeto de Lei 2.338/2023, conhecido como “PL da IA”, e destacou os benefícios da regulação para que o Brasil continue avançando no campo da inovação em inteligência artificial para educação.  
Confira a seguir os principais trechos da entrevista:
Apesar de não ser algo exatamente novo, a IA ganhou popularidade nos últimos anos. Estamos diante de um novo paradigma social ou não é bem assim? 
Boa pergunta. Não é necessariamente um novo paradigma. A popularização da inteligência artificial veio realmente agora com a evolução das IAs generativas, chatbots e outras aplicações como o ChatGPT. Mas a IA já estava dentro do nosso dia a dia há muito tempo: nos algoritmos das redes sociais e em outros campos, como a própria agricultura. Mas os impactos que ela tem tido para as diferentes finalidades, têm denotado cada vez mais a necessidade de olharmos com atenção para essas ferramentas, sabendo que têm um potencial muito grande, mas que seus riscos podem ser tão impactantes quanto. 
Como as tecnologias de IA podem impactar no cenário da educação brasileira? 
Ainda precisamos compreender melhor quais são especificamente os benefícios para a educação.Vemos a IA generativa sendo vendida como uma tecnologia que pode auxiliar na criatividade, na execução de tarefas mais simples, mas a mesma tecnologia que pode fomentar a criatividade, pode acabar com ela e tornar todas as coisas muito parecidas, porque os resultados que as pessoas estão pedindo ali são para uma mesma ferramenta, treinada numa mesma base de dados. Então, ainda precisamos compreender o que queremos com esse tipo de tecnologia na educação. 
Os riscos em relação a IA generativa para educação são parte de uma ideia tecno-solucionista de que vamos utilizar a tecnologia porque ela existe, sem necessariamente entender se é necessária. Também estão relacionados ao fato de que muitas pessoas ainda não têm autonomia crítica para lidar com esse tipo de tecnologia. Na educação, vemos isso no Ensino Básico Fundamental. Muitas crianças e adolescentes hoje vivem nessa realidade – da tecnologia como um fim em si mesmo – e ainda não têm o grau de discernimento necessário para compreender quais são as limitações de uma IA. 
Poderia dar um exemplo dessas limitações e riscos? 
Um aluno entra em contato com uma IA generativa de imagem e pede para que gere uma peça para um trabalho escolar e, por algum motivo, essa tecnologia apresenta um viés que dá um resultado racista, machista. Essa criança, em tese, ainda não tem autonomia crítica para entender que aquilo é um resultado discriminatório e, portanto, nocivo. 
Isso sem considerar ainda a questão da conectividade. Muito se fala sobre IA na educação, mas no cenário brasileiro, boa parte das escolas, em especial as públicas, ainda enfrentam dificuldades de ter internet. Daí para a inteligência artificial, temos um salto a ser preenchido para que possamos falar de um uso vantajoso de IA em sala de aula. 
Temos escolas sem internet e crianças, jovens e educadores sem formação  para  essas ferramentas. Qual é o caminho para desfazer este cenário?
O primeiro passo seria melhorar a conectividade significativa no Brasil, para que crianças e adolescentes, tanto na escola quanto em casa, possam ter acesso à internet de qualidade e não somente a conexões restritas, que só dão acesso a determinadas redes sociais pelo celular. 
O segundo passo é a preparação dos próprios professores para lidar com a tecnologia. Eles devem ser os primeiros a serem treinados em algo que vá ser utilizado em sala de aula. [Também é importante] entender que é necessário avaliar a necessidade daquela determinada tecnologia para determinado contexto. 
Junto a isso, o letramento das próprias crianças e adolescentes em relação ao uso de tecnologia, como as iniciativas da educação midiática que temos visto pelo Brasil. Isso tudo tem que caminhar lado a lado para que possamos explorar realmente o potencial desse tipo de tecnologia nas escolas.
Você fala em um preparo para usar as IAs na educação, mas alguns pesquisadores defendem o contrário: primeiro deixar usar, mesmo sem preparo, para depois entender e avaliar o uso. Como vê essa proposta de ‘deixar usar’? 
Temos uma visão muito pessimista sobre o ‘deixar usar’, porque sempre que lançamos [uma tecnologia] no mercado e depois “vemos o que acontece”, normalmente são grupos específicos já marginalizados que sofrem as piores consequências disso, como, por exemplo, a população negra. Gosto da tese da Bianca Kremer, pesquisadora que fala justamente sobre essa forma com que o mercado de tecnologia tem se desenvolvido, de lançar primeiro e depois ver o que acontece. 
Não precisamos esperar as tecnologias chegarem no mercado para regular e entender como lidar com seus possíveis efeitos. Pelo contrário, hoje temos casos demonstrados de danos produzidos por esse tipo de tecnologia. Esses exemplos já nos permitem construir uma regulação, baseada em riscos e direitos, que nos protejam dos possíveis impactos negativos que já conhecemos. Discordamos dessa abordagem do “deixar usar” justamente por entender que ela vai sacrificar um público específico, e é importante que a IA seja boa para todo mundo. 
O que podemos fazer no curto prazo para lidar bem com as IAs na educação? 
Primeiro, é preciso que qualquer adoção de tecnologia em escolas passe pelo processo de entender que tecnologia é essa. Qual é a sua finalidade? Quais medidas de transparência os desenvolvedores adotaram em relação às tecnologias? Quais são os possíveis impactos negativos ligados a esse sistema? Para mim, a primeira coisa é sempre avaliar a necessidade do uso de determinada tecnologia e depois as outras medidas. 
Outro ponto necessário é a discussão em conjunto com professores, mas também com pais e alunos, para conseguir incorporar adequadamente determinada tecnologia. Principalmente quando falamos de escolas públicas, [é importante] que só sejam adotados sistemas cujo funcionamento seja auditável de forma fácil e transparente para conseguir lidar com eventual resultado negativo que essa tecnologia possa ter. 
Qual a sua visão sobre a regulação da IA no Brasil? 
Estamos num momento chave na discussão, com um projeto de lei (PL) sendo discutido na Comissão Temporária Interna, lá no Senado. Entendemos que esse PL tem muitos pontos positivos. Tivemos um avanço significativo, principalmente do projeto de lei que tínhamos na Câmara dos Deputados, o 21/2020, que era uma carta de princípios. 
O PL 2.338/2023 traz uma proposta de regulação baseada em riscos e direitos, que prevê responsabilidades e um sistema nacional de organização e de cuidado em relação à IA no Brasil, mas ainda tem bastante espaço para melhorar. 
Regulação não atrapalha a inovação tecnológica?  
De forma alguma. Pelo contrário, uma regulação bem estabelecida e discutida, inclusive com o setor privado junto ao governo, à sociedade civil e à academia, pode servir de terreno firme para que o setor privado possa se desenvolver sabendo o que pode ser feito. “Esse é um desafio que temos enfrentado: superar a falsa dicotomia entre regulação e inovação. Pelo contrário, a inovação na IA seguirá muito melhor com uma regulação bem construída”, argumenta. 
Que pontos o PL 2.338 apresenta em relação à educação? 
Temos questões interessantes nesse texto como, por exemplo, a classificação de alto risco para aplicações de IAs voltadas para educação e formação profissional, incluindo avaliação e monitoramento dos estudantes. Isso porque os riscos desse tipo de tecnologia são consideráveis, e ser classificado como de alto risco significa que medidas de governança e transparência específicas serão exigidas desses sistemas.  
Também está prevista a implementação de iniciativas de letramento digital pelo Poder Público, com prioridade para Educação básica, e também com foco em programação, visando ensinar as pessoas a utilizarem e compreenderem criticamente a IA.
Que aspectos ainda precisam ser melhorados? 
Temos pontos para avançar, não necessariamente na área da Educação, mas, por exemplo, em relação ao sistema de reconhecimento facial e de emoções, que entendemos que deveriam ser classificados como de risco excessivo.  Até o momento, é uma regulação que tem tentado responder ao anseio de assegurar inovação, permitir que o setor tecnológico avance no Brasil, mas também assegurar direitos mínimos para que as pessoas tenham suas garantias asseguradas perante esses sistemas. 
Como enxerga os adiamentos da votação do PL? 
Negativamente. Já é o terceiro adiamento. Jogou a votação para depois do recesso e sabemos que após recesso tem eleições municipais. Ainda que não seja o projeto de lei ideal para todos os envolvidos, [realizar] a votação na Comissão Interna e encaminhar para o Plenário da Câmara significa continuar o debate legislativo e permitir que novas perspectivas sejam discutidas e o texto continue sendo aprimorado. 
O que explicaria os adiamentos? 
Estamos enfrentando um problema muito grande, que é a disseminação de desinformação em torno desse projeto de lei, dizendo que seria um novo “PL da censura”, em substituição ao 2.630, que ficou conhecido como “PL das Fake News”. Isso porque o 2.338 passou a assegurar garantias relacionadas à integridade da informação no uso e desenvolvimento desses sistemas e também por ter classificado os sistemas de recomendação, principalmente os das plataformas digitais, como tecnologia de alto risco. Entendo que essa pauta foi um tanto quanto cooptada por um dos lados da discussão, para defender que se trata de um ‘PL da censura’ e impactar no andamento que vinha tendo na CTIA.  
Que pontos diferenciam o PL 2.630/2023, das Fake News, do 2.338/2024, da IA? 
A diferença está principalmente no objeto. O PL 2.630 era voltado para a regulação de plataformas digitais com mais de 10 milhões de usuários no Brasil. Estamos falando de um nicho bem específico de empresas e, principalmente, plataformas de rede social que operam com sistemas da IA. Já o PL 2.338 trata especificamente de sistemas de IA utilizados para diferentes finalidades. É uma lei mais abrangente que visa atingir todo escopo do que é classificado como IA.  Assim, a inclusão da necessidade de proteção à integridade da informação e a classificação de alto risco para sistemas de recomendação das plataformas são apenas pontos que se conversam por envolverem IA. Mas, de maneira alguma, um PL visa ser substituto do outro. 
Enquanto o PL da IA não é aprovado, estamos correndo riscos na Educação? Se sim, quais?
Principalmente a adoção de sistemas de IA funcionando sem a obrigatoriedade de medidas de governança mínimas para que a tecnologia não seja utilizada de modo enviesado. Considerando a lógica de lançar primeiro para depois lidar com os problemas, no contexto da educação, estamos falando de um número grande de crianças e adolescentes entrando em contato com tecnologias cujos efeitos podem ser nocivos. 
Na prática, a ausência de regulação deixa o setor privado sem diretrizes e parâmetros mínimos de atuação. A regulação pode nos auxiliar para que a própria tecnologia seja melhor desenvolvida pelo setor. 
Atualmente, o Brasil é um dos líderes no desenvolvimento de tecnologias de IA para educação. Como estamos no cenário global? 
Como a IA é uma tecnologia que demanda bastante custo, temos visto, assim como em outras áreas, uma concentração em grandes empresas que já desenvolvem essa tecnologia há algum tempo ou em big techs que estão começando a investir. Ainda assim, tenho visto com bons olhos o desenvolvimento científico e tecnológico do país nesse campo. Temos tido diferentes iniciativas, inclusive para competir diretamente com as grandes ferramentas que já estão no mercado. Quando olhamos para o ChatGPT, por exemplo, vemos o modelo da linguagem brasileiro Sabiá-3, criado numa base de dados em língua portuguesa para conseguir compreender melhor nosso cenário.  
Editado por
Clique aqui para ver como a Lupa faz suas checagens e acessar a política de transparência
A Lupa faz parte do
The trust project
International Fact-Checking Network
A Agência Lupa é membro verificado da International Fact-checking Network (IFCN). Cumpre os cinco princípios éticos estabelecidos pela rede de checadores e passa por auditorias independentes todos os anos.
A Lupa está infringindo esse código? FALE COM A IFCN
Tipo de Conteúdo: Abre aspas
Copyright Lupa. Todos os direitos reservados. É proibida a reprodução do conteúdo desta página em qualquer meio de comunicação, eletrônico ou impresso, sem autorização.
Veja mais
FactCheckLab
#SóQueNão
Oficina de checagem
Teen Fact-checking Network
Dúvido, logo penso
Lupa © 2024 Todos os direitos reservados
Feito por
Dex01
Meza Digital