Popularne tematy
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
🚨 PRZEŁOM: badacze umieścili jednego złego aktora w grupie agentów LLM. cała sieć nie zdołała osiągnąć konsensusu.
to jest problem generałów bizantyjskich. koszmar systemów rozproszonych sprzed 40 lat.
a teraz to również problem twojego pipeline'u agentów.
w całkowicie łaskawych warunkach, bez złych aktorów, agenci LLM nadal nie potrafią dojść do wspólnych wartości. a sytuacja pogarsza się, gdy dodajesz więcej agentów do grupy.
tryb awarii jest ujawniający. to nie subtelna korupcja wartości. to nie jeden agent wprowadza błędną odpowiedź. modele po prostu... zatrzymują się. czas się kończy. kręcą się w kółko. rozmowa nigdy nie kończy się na zgodzie.
to ma znaczenie, ponieważ cały hype wokół AI wieloagentowego zakłada, że koordynacja działa. autonomiczne roje agentów, współpraca w rozwiązywaniu problemów, zdecentralizowane systemy AI. wszystko to zakłada, że jeśli umieścisz wiele LLM w jednym pomieszczeniu i dasz im protokół, dojdą do wspólnej decyzji.
konsensus bizantyjski jest jednym z najstarszych, najczęściej badanych problemów w systemach rozproszonych. klasyczne algorytmy rozwiązały go dziesięciolecia temu z rygorystycznymi gwarancjami matematycznymi. pytanie brzmiało, czy agenci LLM mogą osiągnąć to samo poprzez komunikację w naturalnym języku zamiast formalnych protokołów.
odpowiedź, przynajmniej na razie, brzmi nie. a powód jest wart przemyślenia.
tradycyjne algorytmy konsensusu działają, ponieważ każdy węzeł podąża za identycznym, deterministycznym protokołem. LLM są stochastyczne. ten sam prompt produkuje różne wyniki w różnych uruchomieniach. zgoda, która utrzymuje się w rundzie 3, może się rozpaść w rundzie 4, gdy agenci zmieniają swoje rozumowanie po zobaczeniu odpowiedzi rówieśników.
to jest fundamentalna niezgodność: protokoły konsensusu zakładają deterministyczne maszyny stanowe. LLM są ich przeciwieństwem.
to również oznacza, że "więcej agentów = lepsze odpowiedzi" ma sufit, którego nikt nie mierzy. przy pewnej wielkości grupy, koszty koordynacji i awarie konwergencji przewyższają jakiekolwiek korzyści z różnorodnych perspektyw.
praktyczne implikacje są niewygodne dla każdego, kto buduje systemy wieloagentowe do zadań o wysokiej stawce. niezawodna zgoda nie jest emergentną właściwością umieszczania inteligentnych agentów w rozmowie. musi być inżynieryjnie zaprojektowana, z formalnymi gwarancjami, a nie po prostu oczekiwana.

Najlepsze
Ranking
Ulubione
