トレンドトピック
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
🚨 速報:研究者たちは単一の悪意ある人物をLLMエージェントのグループ内に仕込んだ。ネットワーク全体が合意に至らなかった。
これがビザンツ将軍問題です。40年前の分散システムの悪夢です。
そして今やそれはあなたのエージェントパイプラインの問題でもあります。
完全に無害な環境で悪意のある行為者がゼロであっても、LLMエージェントは共有価値観に収束できません。そして、エージェントが増えるほど状況は悪化します。
失敗モードは示唆的だ。それは微妙な価値の腐敗ではありません。一人のエージェントがこっそり間違った答えを仕掛けているわけではありません。モデルたちはただ...時間稼ぎ。タイムアウトです。堂々巡りを繰り返します。会話は決して合意に至らない。
これは重要な点です。なぜなら、マルチエージェントAIの過剰な宣伝は協調が機能することを前提としているからです。自律エージェントの群れ、協働的な問題解決、分散型AIシステム。これらはすべて、複数のLLMを同じ部屋に配置し、プロトコルを与えれば共有決定に収束すると仮定しています。
ビザンチンコンセンサスは分散システムにおける最も古く、最も研究されている問題の一つです。古典的なアルゴリズムは数十年前に厳密な数学的保証で解決していました。問題は、LLMエージェントが正式なプロトコルではなく自然言語コミュニケーションを通じて同じことを達成できるかどうかでした。
少なくとも現時点では、答えは「いいえ」です。その理由はじっくり考える価値があります。
従来のコンセンサスアルゴリズムが機能するのは、すべてのノードが同一の決定論的プロトコルに従うからです。LLMは確率的です。同じプロンプトでも、ランごとに異なる出力が出ます。ラウンド3で成立した合意は、エージェントがピアの回答を見て理由を見直すため、ラウンド4で解消されることがあります。
これが根本的なミスマッチです。コンセンサスプロトコルは決定論的状態機械を前提としています。LLMはその逆です。
また、「より多くのエージェント=より良い回答」には誰も測定していない天井があるということでもあります。あるグループ規模では、調整のオーバーヘッドや収束の失敗が多様な視点からの利益を上回ることもあります。
この実際的な影響は、高リスクタスクのためにマルチエージェントシステムを構築する人にとって不快なものです。信頼できる合意は、賢いエージェントを会話に乗せることで自然に生まれるものではありません。それは明確に設計され、形式的な保証があって、実現を期待するものではありません。
私たちは金融、医療、自律型インフラにマルチエージェントシステムを展開しています。そして、最も基本的な調整プリミティブであるコンセンサス問題はまだ解決されていません。

トップ
ランキング
お気に入り
