J Studios/Getty Images
Para o bem ou para o mal, as ferramentas de IA vêm se tornando uma realidade constante no ambiente acadêmico desde o lançamento do ChatGPT no final de 2022. A Anthropic está analisando como isso se manifesta em tempo real.
Na terça-feira, logo após o lançamento do Claude para a Educação, a empresa divulgou dados sobre quais tarefas os estudantes universitários mais realizam com o chatbot de IA Claude e quais cursos fazem mais uso dessa tecnologia.
Além disso, utilizando o Clio, a ferramenta de análise de dados da empresa, para garantir a privacidade dos usuários, a Anthropic examinou 574.740 conversas anonimizadas entre Claude e usuários de contas de e-mail de ensino superior, tanto do plano Free quanto do Pro. Todas as interações estavam relacionadas a atividades acadêmicas.
Quais tipos de estudantes utilizam o Claude?
Os dados mostraram que os estudantes de ciência da computação formam o maior grupo de usuários do Claude, representando quase 37%, em contraste com o uso significativamente menor entre alunos de negócios, saúde e humanidades. Essa situação não surpreende, visto que os alunos de programação estão mais familiarizados com ferramentas de IA e o Claude se apresenta como um assistente de codificação. No entanto, com base em testes internos, nossos especialistas não recomendam o uso do Claude para programação em comparação a outros chatbots.
Quais são as principais interações dos estudantes com Claude?
A Anthropic classificou as conversas dos estudantes com Claude em quatro categorias, todas igualmente representadas: Resolução Direta de Problemas, Criação Direta de Conteúdo, Resolução Colaborativa de Problemas e Criação Colaborativa de Conteúdo. As duas primeiras referem-se a quando os alunos buscaram respostas ou solicitaram conteúdo pronto, enquanto as duas últimas lidam com diálogos entre os estudantes e Claude para resolver problemas e criar conteúdo.
Quase metade de todas as interações se encaixou nas categorias Diretas, indicando que os estudantes estavam “buscando respostas ou conteúdo com pouco envolvimento”. Em 39% das conversas, os alunos parecem ter utilizado o Claude para “criar e melhorar conteúdo educacional em diversas áreas”, incluindo “elaboração de perguntas de prática, revisão de ensaios ou resumos de material acadêmico”. O próximo maior grupo, constituído por 34%, mostra alunos perguntando a Claude sobre tarefas técnicas ou solicitando soluções, como depuração de código ou resolução de problemas matemáticos.
Os estudantes também empregaram o Claude para analisar dados, desenvolver ferramentas, planejar pesquisas, criar diagramas técnicos e traduzir conteúdo. O uso também variou por área de atuação: os alunos de STEM geralmente recorreram ao Claude para resolução de problemas e consultas colaborativas, enquanto estudantes de humanidades, negócios e saúde tanto colaboraram quanto buscaram resultados diretos. Aqueles em Educação, um grupo menor que provavelmente inclui educadores, utilizaram o Claude para gerar conteúdo em quase 75% das interações, como criar planos de aula e outros materiais de ensino.
Além disso, os achados revelam algumas percepções sobre como os estudantes podem estar usando a IA para fraudar, uma preocupação comum nas instituições educacionais. A Anthropic observou consultas que pediam respostas para questões de múltipla escolha sobre aprendizado de máquina e respostas para testes de inglês, além de solicitações para reescrever textos de forma a não serem detectados por verificadores de plágio.
Entretanto, diversos exemplos demonstram que um uso pode indicar tanto fraude quanto preparação rotineira para estudos. “Por exemplo, uma conversa sobre Resolução Direta de Problemas pode ser para trapaça em um exame em casa – ou para um aluno revisar seu trabalho em um teste prático”, observa a Anthropic. “Se uma conversa Colaborativa constitua trapaça também pode depender de políticas específicas do curso.”
A Anthropic também esclareceu que precisaria entender o contexto educacional em que as respostas do Claude foram utilizadas para ter certeza.
Benefícios (e custos) acadêmicos
O uso do Claude indica várias realidades sobre IA e educação — algumas com mais potencial do que outras. A empresa adaptou a Taxonomia de Bloom, uma estrutura educacional que organiza processos cognitivos de simples (nível inferior) a complexos (nível superior), para entender o que as utilizações do Claude significam para o desenvolvimento de habilidades dos estudantes.
No geral, os dados mostram que os alunos usam o Claude para criar em quase 40% das consultas e para analisar em 30%. Ambas são consideradas funções cognitivas complexas, e os alunos utilizaram o Claude para executá-las em um total combinado de 70% do tempo.
“Existem preocupações legítimas de que sistemas de IA possam servir como uma muleta para os estudantes, sufocando o desenvolvimento de habilidades fundamentais necessárias para sustentar o pensamento de nível superior,” alerta o relatório da Anthropic.
Embora não haja como saber se o uso do Claude está substituindo completamente o pensamento crítico dos alunos, a empresa acrescenta que planeja continuar sua pesquisa para “distinguir melhor quais [interações] contribuem para a aprendizagem e desenvolvem o pensamento crítico.”
Mas nem tudo é negativo. Segundo a Anthropic, educadores que utilizam o Claude para criar materiais didáticos “indicam que abordagens educacionais para a integração de IA provavelmente se beneficiariam ao serem específicas de disciplina.” A capacidade de mapear as variações na maneira como estudantes de diferentes áreas utilizam o Claude poderia levar a mais insights sobre isso no futuro.
A IA é muito boa em personalização — usá-la para adaptar planos de aula e atender melhor estudantes individuais, por exemplo, surge como uma aplicação forte dessa tecnologia. “Enquanto a busca tradicional na web tipicamente apenas fornece respostas diretas, sistemas de IA possibilitam uma variedade muito maior de interações, e com isso, novas oportunidades educacionais,” afirma a Anthropic sobre as descobertas, argumentando que o Claude poderia ser utilizado para explicar conceitos filosóficos ou anatomia muscular, ou criar material abrangente para estudos de química.
Entretanto, na prática, a qualidade das respostas dos chatbots depende fortemente dos dados de treinamento. A IA específica por disciplina pode ajudar na precisão geral, mas distorções sempre são uma possibilidade. Os chatbots também distorcem regularmente artigos de notícias; os usuários devem sempre verificar a veracidade das saídas, certificando-se de que as citações são reais — ao invés de ilusórias.
Qual é o próximo passo?
A Anthropic observou que está “experimentando um Modo de Aprendizado que enfatiza o método socrático e a compreensão conceitual em vez de respostas diretas”, além de estabelecer parcerias com universidades.
Para mais histórias sobre IA, assine nossa newsletter semanal.
Link de referência: [original]
Posts relacionados:



