eksperymentuję z implementacją autoresearch, która: 1. przetwarza bardzo dużą ilość gęstych danych (30 tys. postów na Twitterze, ~kilka milionów słów w czatach LLM + dane zdrowotne + dane o przeglądaniu + wydatki) 2. automatycznie zadaje pytania o wszystkie moje myśli 3. automatycznie generuje cele do weryfikacji, przez cały dzień daję feedback, aby iterować
@mitchellbosley iteruję oczywiście, ale myślę, że rotacja kontekstu jest znacznie zmniejszona, jeśli LLM wykonuje albo ogromne gęste wyszukiwanie, albo wykonanie. Jeśli robisz to jednocześnie, czuję, że otrzymujesz irytującą degradację.
272