Tópicos em alta
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
🚨 ÚLTIMA HORA: pesquisadores plantaram um único ator malicioso dentro de um grupo de agentes do LLM. Toda a rede não conseguiu chegar a consenso.
este é o Problema dos Generais Bizantinos. um pesadelo de sistemas distribuídos de 40 anos.
E agora esse é o problema do seu pipeline de agentes também.
em ambientes totalmente benignos, sem nenhum ator malicioso, os agentes do LLM ainda não conseguem convergir em valores compartilhados. E piora conforme você adiciona mais agentes ao grupo.
O modo de falha é revelador. Não é corrupção sutil de valores. Não é um agente dando uma resposta errada. As modelos simplesmente... Enrolar. Eles acabam de tempo. Eles ficam em círculos. A conversa nunca chega a um acordo.
isso importa porque toda a propaganda da IA multiagente assume que a coordenação funciona. enxames autônomos de agentes, resolução colaborativa de problemas, sistemas de IA descentralizados. tudo isso pressupõe que, se você colocar vários LLMs em uma sala e dar um protocolo, eles vão convergir para uma decisão compartilhada.
O consenso bizantino é um dos problemas mais antigos e estudados em sistemas distribuídos. Algoritmos clássicos o resolveram décadas atrás com garantias matemáticas rigorosas. a questão era se agentes de LLM poderiam alcançar o mesmo por meio de comunicação em linguagem natural em vez de protocolos formais.
A resposta, pelo menos por enquanto, é não. E o motivo vale a pena pensar.
Algoritmos tradicionais de consenso funcionam porque cada nó segue um protocolo determinístico idêntico. LLMs são estocásticos. O mesmo prompt produz saídas diferentes entre as sequências. Um acordo que vale na Rodada 3 pode se dissolver na Rodada 4, à medida que os agentes revisam seu raciocínio após verem as respostas dos pares.
Esse é o descompasso fundamental: protocolos de consenso assumem máquinas de estados determinísticas. LLMs são o oposto disso.
Também significa que "mais agentes = melhores respostas" tem um teto que ninguém está medindo. Em algum tamanho de grupo, falhas de coordenação e convergência superam qualquer benefício de perspectivas diversas.
A implicação prática é desconfortável para quem constrói sistemas multiagente para tarefas de alto risco. Acordo confiável não é uma característica emergente de colocar agentes inteligentes em conversa. Precisa ser planejada explicitamente, com garantias formais, não esperada para que exista.
Estamos implantando sistemas multiagente em finanças, saúde e infraestrutura autônoma. E o problema do consenso, o primitivo mais básico da coordenação, ainda não foi resolvido.

Melhores
Classificação
Favoritos
