Um estudante de doutoramento em Oxford foi apanhado a submeter trabalho "gerado por IA". Exceto que ele não usou IA para escrever nada. Ele usou-a para pensar. Aqui está o fluxo de trabalho que o seu orientador chamou de "o processo de pesquisa mais sofisticado que vi em 20 anos." Ele começa cada ensaio com um brutal prompt diagnóstico. Coloca o seu argumento inicial no Claude e pergunta: "Quais são os 3 saltos lógicos mais fracos neste raciocínio? Onde um examinador hostil atacaria primeiro?" A IA não escreve o seu ensaio. Ela destrói o seu rascunho. Depois ele reconstrói. Mas o próximo passo é o que o separa de todos os outros estudantes que usam ChatGPT ou Claude para gerar parágrafos. Ele carrega os 5 melhores artigos na sua área e pergunta: "Quais afirmações no meu argumento contradizem ou simplificam em demasia o que estes autores realmente descobriram?" A maioria dos estudantes cita artigos que apenas folhearam. Ele cita artigos que foi forçado a entender genuinamente. A jogada final é quase injusta. Antes de submeter, ele cola a sua conclusão e pergunta: "O que diria um filósofo da ciência que está faltando neste argumento? Que suposições estou a fazer que não defendi?" Os seus ensaios voltam com comentários como "incomumente rigoroso" e "demonstra uma rara profundidade crítica." Ele não está a usar IA para escrever. Ele está a usá-la para pensar mais profundamente do que poderia sozinho....