Experimentando com implementação de autopesquisa que: 1. feeds v grandes quantidades de dados densos (30 mil posts no Twitter, ~alguns milhões de palavras em chatlogs de LLM+saúde+navegação+dados de gasto) 2. autointerroga todos os meus pensamentos 3. gera automaticamente metas para eu avaliar, dou feedback o dia todo para iterar
@mitchellbosley estou iterando, claro, mas acho que o context rot é muito reduzido se um LLM estiver fazendo uma recuperação ou execução densa e enorme. Se você faz dois ao mesmo tempo, sinto que você sofre uma degradação irritante.
305