Rubriques tendance
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
🚨 DERNIÈRE MINUTE : des chercheurs ont placé un seul acteur malveillant au sein d'un groupe d'agents LLM. l'ensemble du réseau n'a pas réussi à atteindre un consensus.
c'est le Problème des Généraux Byzantins. un cauchemar des systèmes distribués vieux de 40 ans.
et c'est maintenant aussi le problème de votre pipeline d'agents.
dans des environnements entièrement bénins, sans aucun acteur malveillant, les agents LLM échouent toujours à converger sur des valeurs partagées. et cela s'aggrave à mesure que vous ajoutez plus d'agents au groupe.
le mode d'échec est révélateur. ce n'est pas une corruption subtile des valeurs. ce n'est pas un agent qui glisse une mauvaise réponse. les modèles... stagnent. ils expirent. ils tournent en rond. la conversation n'aboutit jamais à un accord.
cela importe parce que tout le battage médiatique autour de l'IA multi-agents suppose que la coordination fonctionne. des essaims d'agents autonomes, la résolution collaborative de problèmes, des systèmes d'IA décentralisés. tout cela suppose que si vous mettez plusieurs LLM dans une pièce et leur donnez un protocole, ils convergeront vers une décision partagée.
le consensus byzantin est l'un des problèmes les plus anciens et les plus étudiés dans les systèmes distribués. des algorithmes classiques l'ont résolu il y a des décennies avec des garanties mathématiques strictes. la question était de savoir si les agents LLM pouvaient atteindre la même chose par la communication en langage naturel au lieu de protocoles formels.
la réponse, du moins pour l'instant, est non. et la raison mérite d'être méditée.
les algorithmes de consensus traditionnels fonctionnent parce que chaque nœud suit un protocole déterministe identique. les LLM sont stochastiques. le même prompt produit des sorties différentes d'une exécution à l'autre. un accord qui tient au tour 3 peut se dissoudre au tour 4 alors que les agents révisent leur raisonnement après avoir vu les réponses de leurs pairs.
c'est le décalage fondamental : les protocoles de consensus supposent des machines d'état déterministes. les LLM sont l'opposé de cela.
cela signifie également que "plus d'agents = meilleures réponses" a un plafond que personne ne mesure. à une certaine taille de groupe, les frais généraux de coordination et les échecs de convergence l'emportent sur tout avantage provenant de perspectives diverses.
l'implication pratique est inconfortable pour quiconque construit des systèmes multi-agents pour des tâches à enjeux élevés. un accord fiable n'est pas une propriété émergente de la mise en conversation d'agents intelligents. il doit être conçu explicitement, avec des garanties formelles, et non espéré en existence.
nous déployons des systèmes multi-agents dans la finance, la santé, l'infrastructure autonome. et le problème du consensus, le primitive de coordination le plus basique, n'est pas encore résolu.

Meilleurs
Classement
Favoris
