O “Jogo da Avaliação Faz de Conta”: Iniciando uma Conversa sobre o Valor Real dos Trabalhos Escritos de Estudantes no Ensino Superior na Era dos Grandes Modelos de Linguagem

O “Jogo da Avaliação Faz de Conta”: Iniciando uma Conversa sobre o Valor Real dos Trabalhos Escritos de Estudantes no Ensino Superior na Era dos Grandes Modelos de Linguagem

por Márjory Da Costa-Abreu, Everton Cavalcante, Allyson Carvalho de Araújo

Há uma mudança silenciosa (talvez nem tanto), porém transformadora, em andamento na abordagem tradicional de avaliação de resultados de aprendizagem dos estudantes. Discentes de diversas disciplinas estão recorrendo cada vez mais a grandes modelos de linguagem (LLMs, large language models, em inglês) para elaborar, editar ou mesmo redigir completamente seus trabalhos escritos – o que inclui a codificação assistida por agentes inteligentes, no caso da Computação. Enquanto isso, docentes, sobrecarregados por pressões administrativas e elevadas cargas de correção de trabalhos, também estão contando com ferramentas similares para resumir os trabalhos enviados, gerar feedback e auxiliar o processo de avaliação. Apesar do uso generalizado dessas práticas, o ensino superior continua a se comportar como uma instituição que replica uma ideia de ensino burocratizado, idealiza-se como espaço autocentrado de saber e valida o aprendizado de estudantes primordialmente com base no produto, como se a relação de produção e disseminação da informação e do conhecimento não tivesse mudado de forma radical.

O tradicional trabalho escrito dos estudantes, antes visto como um pilar da avaliação acadêmica, aparentemente tem perdido sua credibilidade enquanto instrumento para mensurar a aprendizagem. Esse movimento pode ser uma consequência de uma descentralização ou questionamento da linguagem escrita como o único artefato suficiente para sintetizar o saber proveniente da leitura, interpretação e construção de argumentos.

O que antes servia como uma espécie de janela para a capacidade de pensamento crítico, síntese e argumentação dos estudantes agora funciona mais como uma performance simbólica: gerada por máquinas, validada por seres humanos e, por fim, arquivada com pouco impacto educacional.

Essa charada contínua levanta uma questão difícil, mas essencial: se nem os estudantes estão genuinamente envolvidos na produção de seus trabalhos escritos, nem os docentes estão totalmente engajados na avaliação, o que exatamente estamos avaliando?

A dissonância é impressionante. Em muitas instituições, existe uma forma tácita de cumplicidade. Todos sabem que os LLMs estão sendo usados, mas poucos estão dispostos a admitir isso. Os estudantes não têm clareza quanto aos limites éticos e os docentes privadamente expressam desconforto, mas carecem de apoio institucional ou de como responder apropriadamente a essa situação. Tal confusão aprofunda-se ainda mais pela ausência de ferramentas confiáveis para identificar o uso de LLMs.

As universidades mantêm uma fachada de normalidade acadêmica, aderindo a modelos de avaliação conservadores que não mais refletem precisamente a realidade de como o trabalho é produzido ou avaliado, sobretudo à luz do uso crescente de LLMs associado a premissas de produtividade e de economia de tempo.

Ao fazer isso, o ensino superior corre o risco de minar sua própria função social e sua credibilidade.

No cerne dessa crise está uma ruptura na conexão entre avaliação e aprendizagem. As avaliações escritas nunca se limitaram à mera produção de texto. Elas se referiam ao envolvimento profundo com ideias, à construção de argumentos e ao refinamento do pensamento de forma iterativa. Se nas últimas décadas a crítica na teoria didática se dedicou em denunciar uma avaliação centrada no produto (o instrumento avaliativo final – texto escrito) em detrimento da avaliação do processo de aprendizagem com diferentes momentos avaliativos e modos de expressão de linguagem, hoje o perigo de centrar a avaliação em um texto escrito nos moldes clássicos ganha contornos ainda mais preocupantes. Quando os estudantes terceirizam o trabalho cognitivo para um LLM, os benefícios do desenvolvimento de uma construção autônoma de argumento se perdem. Eles ainda podem obter notas altas, mas o aprendizado que essas notas representam pode nunca ter ocorrido. E quando esses textos escritos são avaliados por meio de um processo igualmente desconexo, resumidos ou pontuados com envolvimento humano mínimo, a oportunidade de se ter um feedback significativo se evapora. Todo o processo torna-se um ciclo fechado de automação, desprovido de esforço intelectual genuíno de ambos os lados.

Essa erosão da substância tem implicações profundas. Se os estudantes formam-se com habilidades em engenharia de prompt, mas carecem de pensamento crítico, ou se aperfeiçoaram na geração de texto sem dominar a construção de argumentos, a proposta de valor do ensino superior torna-se esvaziada de sentido. Docentes, formuladores de políticas e estudantes podem então, justificadamente, começar a questionar o que um diploma realmente representa.

Para avançar, a educação deve, antes de tudo, estar disposta a discutir abertamente o que está acontecendo. Não podemos abordar um problema que nos recusamos a nomear. Reconhecer o papel dos LLMs no trabalho acadêmico não é uma admissão de fracasso; pelo contrário, é o primeiro passo para o desenvolvimento de novos modelos mais transparentes, eficazes e voltados para o futuro. Isso exige repensar o que avaliamos e como avaliamos. Em vez de focarmos apenas no produto escrito, devemos considerar o processo de aprendizagem: como as ideias são formadas, desafiadas e refinadas ao longo do tempo. As avaliações podem envolver etapas de submissão, componentes presenciais, diários reflexivos ou projetos colaborativos – formatos que enfatizam o engajamento e a originalidade de maneiras difíceis de replicar com um LLM.

Essa mudança também exige maior transparência e letramento digital, especialmente no que diz respeito à inteligência artificial. Os estudantes devem ser incentivados a declarar como utilizam os LLMs e a refletir criticamente sobre esse uso. Em vez de proibir totalmente o uso de ferramentas de LLMs, o que está se tornando uma posição cada vez mais insustentável, deveríamos ensinar os estudantes a usá-las de forma responsável e criteriosa, como parte de um conjunto de habilidades mais amplo que inclui julgamento, ética e autoconsciência.

Os docentes também necessitam de apoio. Treinamento e orientação institucional são essenciais para que os educadores utilizem LLMs de forma significativa, sem abrir mão de seu papel pedagógico. Os LLMs podem auxiliar a gerenciar a carga de trabalho, mas não devem substituir a conexão humana que agrega valor à educação. O feedback ainda deve refletir uma compreensão genuína dos pontos fortes, desafios e potencial do estudante.

Se o ensino superior continuar a fingir que os tradicionais modelos de ensino e avaliação ainda são coerentes com os processos formativos contemporâneos, corre-se o risco de ele se tornar um sistema de credenciamento vazio e custoso, que oferece pouco valor e ensina ainda menos.

No entanto, este momento apresenta uma oportunidade se o abordarmos com honestidade e criatividade. Temos a chance de redefinir o que importa na aprendizagem, realinhar a avaliação com o desenvolvimento intelectual e reafirmar o valor da educação em uma era em que as máquinas até podem escrever, mas apenas os seres humanos podem realmente pensar.

Texto também publicado em inglês acessível em http://aserg.org/blog/2025-08-06-chatgpt-test-automation/

Sobre os autores

Márjory Da Costa-Abreu é Professora Associada em IA Ética na Sheffield Hallam University, Sheffield, Reino Unido, https://orcid.org/0000-0001-7461-7570

Everton Cavalcante é Professor Adjunto em Ciência da Computação na Universidade Federal do Rio Grande do Norte, Natal-RN, Brasil, https://orcid.org/0000-0002-2475-5075

Allyson Carvalho de Araújo é Professor Associado em Educação Física na Universidade Federal do Rio Grande do Norte, Natal-RN, Brasil, https://orcid.org/0000-0003-0114-8122

 

Como citar essa matéria

Da Costa-Abreu, Márjory; Cavalcante, Everton; Carvalho de Araújo, Allyson. O “Jogo da Avaliação Faz de Conta”: Iniciando uma Conversa sobre o Valor Real dos Trabalhos Escritos de Estudantes no Ensino Superior na Era dos Grandes Modelos de Linguagem, SBC Horizontes, Agosto 2025. ISSN 2175-9235. Disponível em: <https://horizontes.sbc.org.br/index.php/2025/08/o-jogo-da-avaliacao-faz-de-conta-iniciando-uma-conversa-sobre-o-valor-real-dos-trabalhos-escritos-de-estudantes-no-ensino-superior-na-era-dos-grandes-modelos-de-linguagem/>. Acesso em:<data>

Compartilhe: