UOL - O melhor conteúdo
Lupa
“Regular IA faz sentido, mas falta contexto”, diz diretor de inovação
16.09.2024 - 12h31
Rio de Janeiro - RJ
A regulação da inteligência artificial no Brasil divide a opinião de especialistas no campo da educação. Em meio ao consenso de que é preciso avançar no tema, educadores, pesquisadores e gestores divergem sobre os caminhos para chegar até lá. “A regulação faz sentido, mas a forma como estamos fazendo não está contextualizada”, afirma Guilherme Cintra, Diretor de Inovação e Tecnologia da Fundação Lemann, em entrevista para a terceira edição da série IA na Educação, da Lupa

Na primeira edição, Seiji Isotani, presidente da Sociedade Internacional de Inteligência Artificial na Educação, falou da necessidade de novos modelos de avaliação de ensino, destacando a importância de priorizar a inovação no campo da IA; na segunda, foi a vez de Fernanda Rodrigues, coordenadora de pesquisa do Instituto de Referência em Internet e Sociedade (IRIS-BH), defender a regulação como ponto de partida para o avanço e inovação da IA no campo da educação. Na primeira parte desta terceira edição, Guilherme Cintra trouxe a urgência de debater questões ligadas à IA na educação hoje, tema sobre o qual muito se fala, mas ainda pouco se sabe. 

Nesta segunda parte da entrevista, Cintra indica a necessidade de construir uma legislação com base nas demandas específicas da educação brasileira, evitando a reprodução de modelos internacionais desenhados para outras realidades. 
Em sua visão, a IA pode contribuir para soluções educacionais dentro e fora da sala de aula, incluindo maior acessibilidade e melhorias nos processos de avaliação. Por outro lado, o especialista reconhece que ainda falta entender melhor quais os objetivos ao utilizar IA na educação, sendo necessário incluir diferentes grupos sociais na conversa. 
“Para que queremos usar essas tecnologias? O que elas representam de fato? O aumento de produtividade, sem dúvida, é importante, isso tem que ser mensurável. Mas talvez tenham outros componentes, que ainda nem sabemos medir”. 
Confira os principais trechos:
Como enxerga a regulação da Inteligência Artificial no Brasil? 
Sempre vamos desenhar políticas olhando para diferentes países e realidades para construir a nossa. Sou a favor de olhar e adaptar para o nosso modelo, mas me preocupa ele ser muito parecido com o europeu. Por um lado, é interessante. Por outro lado, a conjuntura europeia é muito diferente da brasileira. Existe uma série de adaptações necessárias. Por mais que tenhamos pessoas fazendo coisas incríveis no Brasil, não estamos no mesmo nível de desenvolvimento de tecnologia [da Europa]. Nossa cultura e nosso contexto regulatório são diferentes. 
Por isso, na prática, a sensação é que estamos fazendo muito parecido uma coisa que não é tão parecida assim. Ela é muito importante, mas na prática, quando você vai para o governo – e eu trabalhei lá por um tempo –  existe muita incerteza jurídica sobre o que dá e o que não dá para fazer. Isso gera uma trava e as pessoas não fazem. Será que estamos trabalhando nas camadas que vão além da regulação, para uma camada de esclarecer o que pode ou não pode ser construído [no campo da IA]? Precisamos pensar na prática como fazer para não travar o desenvolvimento do país. Porque dá para ter a regulação que trava e a que não trava
O que poderia ser mais claro no projeto de regulação da IA no Brasil? 
Sinto muita falta de clareza sobre o que quer dizer, na prática, o conceito de “alto risco” no campo da educação, por exemplo. A forma como a lei foi desenhada, baseada no modelo europeu,  trabalha em níveis de risco e classifica [o campo da] educação como de alto risco. Coloca no mesmo nível uma série de potenciais aplicações em educação que têm níveis de risco muito diferentes e que deveriam ser tratadas de formas muito diferentes. 
Pode exemplificar esses diferentes níveis de risco? 
Uma coisa é fazer uma avaliação ligada à entrada [do aluno] numa universidade. Se uso inteligência artificial para automatizar isso, corro risco dessa base estar influenciada por determinado viés social, com os dados históricos que a alimentaram. Portanto, isso tem um perfil de risco supostamente maior. Agora, se faço uma avaliação diagnóstica que não informa se uma pessoa individualmente sabe ou não, apenas se aquele estado ou município está indo bem, isso poderia beneficiar a política pública nacional e ter baixo risco. 
Se considerarmos tudo no mesmo pacote, será dito que não se pode usar IA em avaliação. São coisas tão diferentes e colocadas como tão próximas, que estamos indo por um caminho que vai gerar uma carga jurídica muito relevante sobre o potencial de inovação. E quem poderá arcar com essa carga jurídica não são as pequenas empresas, mas em geral as grandes corporações. 
Quais seriam os efeitos dessa carga jurídica sobre a inovação? 
A inibição da inovação local. E na educação isso é particularmente problemático, porque tem componentes muito fortes de dependência de contexto. Assim, se as únicas corporações que conseguem criar novas soluções educacionais, vêm de fora – porque têm recursos para lidar com a carga jurídica necessária –, perdemos a capacidade de contextualizar [soluções educacionais] para o nível local. 
A regulação faz sentido, mas a forma como estamos fazendo não está contextualizada e pode inibir determinados usos que, na educação, são muito importantes. Precisamos de ferramentas para equalizar a educação brasileira e reduzir desigualdades. Se bem utilizadas, as tecnologias de IA podem ser benéficas
Que outros aspectos são importantes na construção da regulação da IA? 
Um elemento chave é a questão da segurança. É preciso garantir que as provedoras de serviços estejam considerando e demonstrando ter determinados critérios de segurança concretos. Como garanto que não haverá um ataque hacker e um vazamento de dados? É importante entender como esses dados estão sendo coletados e usados, se estão ou não sendo compartilhados.  
O componente ético, relacionado aos vieses, do qual já falamos [ver parte I] é outro ponto a considerar. Existe alguma forma de avaliar se estamos mitigando vieses nas suas bases?
Deve-se também buscar evitar componentes que impeçam a inovação e novas soluções. É preciso adequar a capacidade de criar, desenvolver e gerenciar ferramentas ao Estado em que a política será executada. 
São necessários diferentes frames regulatórios para diferentes estágios do desenvolvimento [de uma solução tecnológica]. Agora, é importante que tenhamos tudo isso com clareza jurídica e ainda está pouco claro. Quando converso com edtechs e startups, quem está mais evoluído, reconhece que não sabe o que vai acontecer porque, mesmo gerando impacto social positivo, sua iniciativa pode não se adequar à regulação. 
Quais seriam os grupos mais impactados pela inserção das IAs no contexto atual e como incluí-los nesse debate? 
Ainda é um cenário muito amplo. Por isso, dependendo da aplicação, as pessoas impactadas são distintas. Mas quando falamos da educação, é relevante pensar o aspecto racial no Brasil. Hoje, temos clareza que a população negra é a mais prejudicada pelo sistema educacional. Isso gera um histórico, e [as tecnologias de] IA se baseiam em históricos. Portanto, quando se constrói algoritmos educacionais que se embasam nesse histórico, é necessário ter pessoas na mesa que potencialmente sofrem com isso, como no caso dos vieses discriminatórios. 
A pesquisa, de Ricardo Madeira, da USP, com foco em escolas públicas em São Paulo, demonstra que, quando avaliações são feitas pelo professor da sala, há um viés discriminatório, o que baixa a nota do aluno em relação a nota do Saresp (Sistema de Avaliação de Rendimento Escolar do Estado de São Paulo), avaliação esta que não é feita diretamente pelo professor. Isso mostra que temos uma estrutura social racista, que se reflete nas notas dos alunos e que corre o risco de ser reproduzida se utilizada como base para treinar uma IA. 
A conectividade é um fator impeditivo para a inclusão? 
A conectividade ainda é, sim, um impeditivo e, como fundação, temos trabalhado muito nesse tema. Precisamos de uma convergência entre a IA desplugada [que não precisa de conectividade diretamente] e a IA plugada [que precisa]. Por um lado, ter pessoas fazendo as melhores soluções de IA desplugada, desenvolvendo produtos para os contextos mais desconectados possíveis. 
Algumas realidades brasileiras têm restrições profundas: não há dispositivos para os alunos acessarem a internet, apenas o celular do professor; quando há, o acesso à rede é intermitente e parcial, quase sempre feito fora da sala de aula. Temos cenários em que esse professor não é sequer formado no tema que está dando aula e não tem letramento digital. 
Outro ponto é o desenvolvimento do próprio conceito de conectividade.  Conectividade para quê? Às vezes, primeiro desenhamos a conectividade, depois pensamos em hardware e depois na sala de aula. Porém, se não se sabe o porquê de fazer e não se tem intenção, não saberemos que conectividade e equipamentos são necessários. 
Estamos evoluindo como país, mas precisamos continuar esse trabalho de conectividade. Desenhar [soluções] para lugares sem conectividade, para não deixar ninguém para trás, enquanto damos condições e chegamos mais próximo de sermos um país 100% conectado. 
Tudo indica que, em breve, tecnologias de IA chegarão de forma massiva à educação brasileira. Que indicadores existem para medir o impacto desta entrada?
Primeiro, indicadores como o Ideb (Índice de Desenvolvimento da Educação Básica) devem continuar a ser usados, como base histórica para acompanhar as notas, por exemplo. Um relatório da Unesco do ano passado aponta que ainda há poucas pesquisas em Educação e Tecnologia para a demonstração de resultados efetivos. Então, precisamos continuar seguindo a base histórica e, a partir disso, mensurar resultados efetivos com qualidade. 
Já há indicadores para medir o letramento digital dos estudantes? 
Há um componente de letramento digital, que está em discussão, mas que ainda não tem uma base histórica, pelo menos não que eu conheça. O próprio Pisa está pensando em como discutir isso. Este componente vai na linha de como o aluno consegue de fato usar e incorporar as tecnologias da informação, o que inclui inteligência artificial. Não é fácil e nem trivial.  Seria ótimo conseguirmos mensurar isso. 
Isso porque o letramento digital é fundamental para permitir a expressão do aluno e, consequentemente, avaliar como ele realmente incorpora e executa uma competência a partir do que compreende. 
O Pisa deste ano trouxe a avaliação do componente de criatividade e os resultados mostraram que os alunos brasileiros não são criativos. Educadores brasileiros vão dizer que não entenderam o dado. Isso porque nossa perspectiva sobre o que é expressão e criatividade, é diferente da de Cingapura, por exemplo, que se saiu bem nesse componente. 
Como a inteligência artificial poderia ajudar nessa mensuração? 
Estamos longe de saber o que realmente queremos fazer com essas tecnologias e isso tem um componente cultural muito forte. Ainda não sabemos o que estamos tentando mensurar de verdade. Não vou dar uma resposta definitiva sobre a finalidade da IA na educação, porque ninguém tem. Para que queremos usar essas tecnologias? O que elas representam de fato? O aumento de produtividade, sem dúvida, é importante, isso tem que ser mensurável. Mas talvez tenham outros componentes, que ainda nem sabemos medir. 
A forma como os alunos se expressam e como entendem o que é realidade e verdade, é super importante. É um dos grandes desafios que temos atualmente. Como explicar que isso é verdade e não aquilo? Talvez exista uma forma de mensurar se o aluno é capaz de lidar com desinformação, por exemplo. Por outro lado, é difícil metrificar tudo. Senão, não educamos ninguém, ficamos apenas metrificando. Temos que ser mais criativos sobre os objetivos concretos da educação, que têm que estar alinhados ao funcionamento do século XXI, e não ao passado.

LEIA MAIS
Editado por
Clique aqui para ver como a Lupa faz suas checagens e acessar a política de transparência
A Lupa faz parte do
The trust project
International Fact-Checking Network
A Agência Lupa é membro verificado da International Fact-checking Network (IFCN). Cumpre os cinco princípios éticos estabelecidos pela rede de checadores e passa por auditorias independentes todos os anos.
A Lupa está infringindo esse código? FALE COM A IFCN
Tipo de Conteúdo: Abre aspas
Copyright Lupa. Todos os direitos reservados. É proibida a reprodução do conteúdo desta página em qualquer meio de comunicação, eletrônico ou impresso, sem autorização.
Lupa © 2024 Todos os direitos reservados
Feito por
Dex01
Meza Digital