экспериментирую с реализацией автоисследования, которая: 1. обрабатывает очень большие объемы плотных данных (30 тыс. твитов, ~несколько миллионов слов в чатах LLM + здоровье + данные о расходах) 2. автоматически запрашивает все мои мысли 3. автоматически генерирует цели, которые я должен проверить, я даю обратную связь весь день для итерации
@mitchellbosley я, конечно, итерирую, но думаю, что контекстное вырождение значительно уменьшается, если LLM либо выполняет огромный плотный поиск, либо выполняет задачи. Если делать два одновременно, мне кажется, что это приводит к неприятному ухудшению.
301