IA em trabalhos escolares: se é inevitável, por que não criar regras de uso?
Novo protocolo quer garantir que o pensamento humano continue no centro da aprendizagem

As novas gerações de modelos de inteligência artificial estão mais sofisticadas e precisas, capazes de produzir textos bem escritos, com menos erros e distorções. Mas, quando a redação deixa de refletir o raciocínio real do aluno, a nota perde o sentido – e o diploma também.
No entanto, esse problema vai muito além da sala de aula. Em áreas como direito, medicina e jornalismo, a confiança depende de saber que há um ser humano por trás das decisões. Um paciente, por exemplo, espera que a avaliação médica reflita o pensamento e a experiência de um profissional, não de um algoritmo.
Hoje, ferramentas de IA já ajudam pessoas a tomar decisões. Mas, mesmo quando sua participação é pequena, é difícil saber se o profissional de fato conduziu o processo ou apenas digitou alguns comandos para que a máquina fizesse o resto. O que se perde, nesse caso, é o senso de responsabilidade – a ideia de que indivíduos e instituições devem responder pelo que assinam.
- 10 livros sobre Inteligência Artificial que vão mudar sua forma de pensar a tecnologia
- Como a IA está impactando a relação de confiança entre alunos e professores
- Na era da inteligência artificial, fazer faculdade é ainda mais importante
- 3 lições do Laboratório de Felicidade de Harvard que vão mudar sua vida
A educação, para mim, é o campo de testes ideal para enfrentar esse desafio: aprender a usar a IA sem perder a clareza e o valor do pensamento humano. Se conseguirmos resolver isso nas escolas e universidades, talvez encontremos um caminho para outras áreas em que a confiança ainda depende da autoria humana.
Nas minhas aulas, estamos testando um protocolo de autoria que busca garantir que o texto do aluno continue conectado ao seu próprio raciocínio, mesmo quando a IA está envolvida no processo.
IA INFILTRADA NA ROTINA ESCOLAR
A relação entre professor e aluno nunca esteve tão abalada. Um estudo recente do Instituto de Tecnologia de Massachusetts, nos EUA, mostrou que estudantes que usam grandes modelos de linguagem para escrever redações se sentem menos donos do próprio trabalho e apresentam pior desempenho em aspectos fundamentais da escrita.
Os alunos ainda querem aprender, mas muitos se sentem desmotivados. Perguntam: “por que pensar por conta própria se a inteligência artificial pode me dar a resposta?”.
Professores temem que seu feedback já não tenha impacto. Universidades buscam soluções. Alguns professores tentam criar atividades “à prova de IA”, exigindo textos mais pessoais ou pedindo que os alunos mostrem os prompts e o processo que usaram.
Outros defendem um retorno ao que chamam de “padrões medievais”: provas escritas presenciais e exames orais. Mas esse tipo de avaliação tende a valorizar a rapidez sob pressão, não o raciocínio.

E, se os alunos usarem IA fora da sala de aula, o resultado pode ser o oposto do esperado: os professores podem acabar reduzindo o nível de exigência – algo parecido com o que aconteceu quando os smartphones e as redes sociais começaram a prejudicar a leitura e a concentração.
O problema não é a inteligência artificial oferecer bons argumentos – livros e colegas também fazem isso. A questão é que ela está se infiltrando na rotina escolar, sussurrando sugestões a todo momento no ouvido dos alunos.
Saber se o aluno apenas repete o que a IA diz ou se realmente incorpora essas ideias ao próprio raciocínio é essencial, mas isso é impossível de avaliar depois que o texto está pronto. Um trabalho excelente pode esconder uma dependência; um texto fraco pode refletir um esforço genuíno.
CONSTRUINDO VÍNCULO ENTRE PROCESSO E RESULTADO
Embora muitos prefiram evitar o esforço de pensar por conta própria, é justamente esse esforço que torna o aprendizado duradouro. A única saída, a meu ver, é preservar o elo entre o raciocínio do aluno e o trabalho que nasce dele.
Imagine uma plataforma educacional em que o professor define, para cada atividade, como a IA pode ou não ser usada. Um trabalho de filosofia, por exemplo, poderia ser escrito em uma janela que bloqueia a função copiar e colar e impede o uso de inteligência artificial, mas ainda permite salvar rascunhos.
A educação é o campo de testes ideal para aprender a usar a IA sem perder a clareza e o valor do pensamento humano.
Já um projeto de programação poderia permitir o uso de IA, mas incluir uma etapa antes da entrega para fazer perguntas rápidas ao aluno sobre o próprio código. Quando o trabalho fosse enviado, o sistema emitiria um selo digital – uma espécie de comprovante –, garantindo que o trabalho foi produzido sob aquelas condições específicas.
No meu laboratório na Universidade Temple, estamos testando essa ideia com um protocolo de autoria que desenvolvi. No modo principal de verificação, um assistente de IA faz perguntas simples e naturais para trazer o estudante de volta ao próprio raciocínio: “você poderia reformular seu argumento principal?” ou “poderia fornecer um outro exemplo que ilustre essa mesma ideia?”.
As respostas ajudam o sistema a entender o quanto do raciocínio do aluno está presente no texto final.

Os prompts se adaptam em tempo real à escrita de cada estudante, tornando o esforço de trapacear maior do que o de pensar. O objetivo não é substituir professores nem dar notas, mas reforçar a conexão entre o processo e o resultado.
Para os professores, isso devolve a confiança de que seu feedback se baseia no pensamento real do aluno. Para os alunos, estimula a consciência sobre o próprio aprendizado – ajuda a perceber quando estão, de fato, raciocinando e quando estão apenas reproduzindo o que a máquina gerou.
Acredito que professores e pesquisadores deveriam poder criar seus próprios sistemas de verificação de autoria, cada um com um selo digital que comprove que o trabalho passou por um processo específico – e que as instituições possam decidir em quais confiar.
Este artigo foi republicado do “The Conversation” sob licença Creative Commons. Leia o artigo original.