Докторант Оксфордского университета попался на том, что сдал работу, сгенерированную "AI". Хотя он не использовал AI для написания ничего. Он использовал его для размышлений. Вот рабочий процесс, который его научный руководитель назвал "самым сложным исследовательским процессом, который я видел за 20 лет." Он начинает каждое эссе с жесткого диагностического запроса. Сбрасывает свой черновой аргумент в Claude и спрашивает: "Какие 3 самых слабых логических скачка в этом рассуждении? Где бы враждебный экзаменатор атаковал в первую очередь?" AI не пишет его эссе. Он разрушает его черновик. Затем он восстанавливает. Но следующий шаг отделяет его от всех остальных студентов, использующих ChatGPT или Claude для генерации абзацев. Он загружает 5 лучших статей в своей области и спрашивает: "Какие утверждения в моем аргументе противоречат или упрощают то, что на самом деле нашли эти авторы?" Большинство студентов ссылаются на статьи, которые они лишь бегло просмотрели. Он ссылается на статьи, которые ему пришлось действительно понять. Финальный ход почти несправедлив. Перед отправкой он вставляет свое заключение и спрашивает: "Что бы сказал философ науки, что отсутствует в этом аргументе? Какие предположения я делаю, которые не обосновал?" Его эссе возвращаются с комментариями, такими как "необычно строго" и "демонстрирует редкую критическую глубину." Он не использует AI для написания. Он использует его, чтобы думать глубже, чем мог бы один....