UOL - O melhor conteúdo
Lupa
ChatGPT: Na volta às aulas, experimentação precisa ser o caminho, defendem especialistas
08.02.2023 - 12h03
Rio de Janeiro - RJ
Escrever textos inéditos, responder de forma completa a perguntas específicas e até ser aprovado em testes de vestibular: ações como essas já podem ser realizadas por tecnologias de Inteligência Artificial (IA), como o ChatGPT. A versão 3 da ferramenta, lançada no final de 2022 tem gerado preocupação, mas também entusiasmo entre especialistas e educadores, que alertam: diante da popularização, é preciso experimentar e entender o potencial e as limitações dessa tecnologia. 
Criado pela OpenIA, o Chat GPT é um chatbot - programa que simula um ser humano na conversação com as pessoas, baseado em inteligência artificial. A sigla GPT significa "Generative Pre-Trained Transformer", que pode ser traduzido como “Transformador pré-treinado generativo”. 
Na prática, a ferramenta gera respostas a partir do que o usuário escreve na caixa de texto da plataforma. Esse conteúdo (que funciona como um comando) pode variar, desde uma pergunta genérica a uma indicação com atribuições detalhadas - com palavras-chave, contexto e sentido específicos dos termos usados, capazes de serem interpretados pela ferramenta com rapidez e precisão ao devolver a resposta. 
"O ChatGPT tende a mudar a forma como vamos buscar e consumir informação na web, aprimorando os mecanismos de busca já existentes hoje", explica Diogo Cortiz,  professor de design da PUC-SP e pesquisador do NIC.Br.
A Lupa testou a tecnologia, pedindo uma explicação sobre a diferença entre ChatGPT e Inteligência Artificial. 
Sem a necessidade de alterações, a resposta entregue pelo bot poderia ser incorporada como um trecho desta matéria ou de uma pesquisa escolar, por exemplo - o que no contexto da volta às aulas traz preocupação aos professores.
Com receio sobre o impacto da ferramenta no aprendizado e avaliação dos alunos, escolas de Nova Iorque e Seattle, nos Estados Unidos, proibiram o acesso e uso do ChatGPT em suas redes de Wi-Fi. Algumas universidades norte-americanas também vem adaptando e até alterando suas disciplinas e métodos avaliativos para evitar a interferência da plataforma nas atividades.  
No final de janeiro, a própria OpenAI lançou um programa que ajuda a detectar se um texto é produzido ou não por mecanismos de inteligência artificial. Ainda assim, a possibilidade de erros e brechas na detecção segue alta, segundo Diogo Cortiz.  
Experimentação 
Na visão do pesquisador, o caminho mais efetivo para os educadores no momento atual é ter cautela e focar no uso experimental da ferramenta. "É uma situação inédita, um ponto de inflexão e sinal de mudança para o futuro. Por isso, temos que ir com cautela, mas não proibir ou ver como mal. Não é o caso de definir prós e contras. Uma palavra que resume o momento é experimentação", argumenta o pesquisador, que é também coordenador do curso de Design da PUC-SP.  
"Além de não solucionar o problema, [a proibição] tira a oportunidade de levar isso para a sala de aula e, junto com os alunos, ir experimentando e entendendo a ferramenta. Mais do que isso, vamos desenvolvendo as habilidades e competências, tanto dos alunos, quanto dos docentes: para que serve, até onde ela funciona, o quanto ela acerta e o quanto ela erra", indica Cortiz. 
Diogo Cortiz
Consultora de Inovação e Educação, educadora e fundadora da Human.ia, Giselle Santos lembra que, no Brasil, ainda é forte a ideia de que o professor não pode errar, o que traz insegurança na hora de experimentar novas metodologias e ferramentas em sala. "2023 é o ano em que o educador realmente está sentindo que saiu da lógica da pandemia, passando por todas as dificuldades tecnológicas que esse período suscitou, e aí vem uma nova onda como a do ChatGPT. É natural que haja certo receio", opina. 
Giselle Santos
Por isso, antes de adotar efetivamente a ferramenta, seria necessário um momento de introspecção, com a adoção de atividades simples, como o uso do papel para compreensão do funcionamento de um sistema de chatbot ou ainda o exercício de validação dos textos apresentados pelo robô, a partir de fontes confiáveis.
"Já fizemos algo parecido com a Wikipedia. Por que não fazer com o ChatGPT? Experimentar a ferramenta, buscar informação, verificar se o conteúdo é acurado ou não, desenvolvendo um senso crítico de que a ferramenta não é um oráculo digital e tem suas limitações", sugere Diogo, que é professor na graduação do curso de Design. 
Além de limites e falhas, os pesquisadores explicam que o ChatGPT não é tão inovador quanto parece. "De fato, esse tipo de predição que o GPT faz não é novo. Um corretor ortográfico que eu uso já tem inteligência artificial. Para o grande público pode ser algo disruptivo. Dentro do formato do próprio GPT3 existem outras tantas ferramentas que a gente já usa há muito tempo", explica Giselle. Exemplo real disso é o Google, que já tem modelos desenvolvidos e anunciou que lançará pelo menos 20 produtos com IA em 2023.  
ChatGPT e desinformação
App com o crescimento mais rápido da história, o ChatGPT alcançou a marca de 100 milhões de usuários ativos em um mês. A popularização deve potencializar a produção de conteúdos, tanto informativos, quanto desinformativos. "A sensação de confiabilidade agora pode ser maior, mas conforme formos usando, os erros vão aparecer e isso vai nos levar a criar melhores instruções, perguntas melhores, parâmetros e isso é super saudável", explica Giselle. 
No entanto, há questões ainda mais básicas sobre IA que precisam ser melhor entendidas. "Me preocupa muito como educadora essa associação direta que coloca o ChatGPT como sinônimo de inteligência artificial", diz Giselle Santos. Ela explica que a plataforma utiliza recursos específicos de inteligência artificial, mas não é a inteligência artificial em si. "Essa confusão gera um hype, que gera ansiedade, medo e, por fim, desinformação", alerta a consultora. 
Outro ponto de risco é a dificuldade de localização das fontes de informação utilizadas na geração do texto pelo chatbot. "Ele foi treinado com uma base de textos muito grande. Leu cópias de livros, conteúdos criados na internet, Wikipédia e textos jornalísticos. Só que ele começa a representar esses textos e palavras numa lógica interna dele, o que torna difícil até para o desenvolvedor saber como ele organizou aqueles elementos para dar determinada resposta".
A versão atual do GPT utiliza uma base de dados de 2021 para gerar os textos, fazendo com que temas, acontecimentos e questões mais atuais sejam respondidas sem precisão ou não respondidas.  
"O ChatGPT dá uma resposta, mas não te fala a fonte. Ele é convincente e a gente passa a ter dificuldade de validar o que ele fala, porque passa a ser mais difícil saber as fontes. Para fazer a checagem de fatos nesse caso fica ainda mais difícil", comenta Diogo Cortiz.
Ainda é cedo para saber os reais impactos da ferramenta no desenvolvimento das tecnologias da informação. O debate é tão longo quanto profundo. Sem respostas rápidas - como as geradas pelo GPT - educadores precisam estar alertas, abertos e atentos às novas inteligências e ferramentas de ensino e aprendizagem. 
Clique aqui para ver como a Lupa faz suas checagens e acessar a política de transparência
A Lupa faz parte do
The trust project
International Fact-Checking Network
A Agência Lupa é membro verificado da International Fact-checking Network (IFCN). Cumpre os cinco princípios éticos estabelecidos pela rede de checadores e passa por auditorias independentes todos os anos.
A Lupa está infringindo esse código? FALE COM A IFCN
Tipo de Conteúdo: Artigos
Copyright Lupa. Todos os direitos reservados. É proibida a reprodução do conteúdo desta página em qualquer meio de comunicação, eletrônico ou impresso, sem autorização.
Veja mais
FactCheckLab
#SóQueNão
Oficina de checagem
Teen Fact-checking Network
Dúvido, logo penso
Lupa © 2024 Todos os direitos reservados
Feito por
Dex01
Meza Digital