Un doctorant à Oxford a été pris en train de soumettre un travail "généré par l'IA". Sauf qu'il n'avait utilisé aucune IA pour écrire quoi que ce soit. Il l'a utilisée pour réfléchir. Voici le flux de travail que son conseiller a qualifié de "processus de recherche le plus sophistiqué que j'ai vu en 20 ans." Il commence chaque essai par un prompt diagnostique brutal. Il déverse son argument brut dans Claude et demande : "Quels sont les 3 sauts logiques les plus faibles dans ce raisonnement ? Où un examinateur hostile attaquerait-il en premier ?" L'IA n'écrit pas son essai. Elle détruit son brouillon. Puis il reconstruit. Mais la prochaine étape est ce qui le sépare de tous les autres étudiants utilisant ChatGPT ou Claude pour générer des paragraphes. Il télécharge les 5 meilleurs articles de son domaine et demande : "Quelles affirmations dans mon argument contredisent ou simplifient à l'excès ce que ces auteurs ont réellement trouvé ?" La plupart des étudiants citent des articles qu'ils ont survolés. Lui cite des articles qu'il a été contraint de comprendre réellement. Le dernier mouvement est presque injuste. Avant de soumettre, il colle sa conclusion et demande : "Que dirait un philosophe des sciences qu'il manque dans cet argument ? Quelles hypothèses fais-je que je n'ai pas défendues ?" Ses essais reviennent avec des commentaires tels que "inhabituellement rigoureux" et "démontre une rare profondeur critique." Il n'utilise pas l'IA pour écrire. Il l'utilise pour réfléchir plus intensément qu'il ne pourrait le faire seul....