最初のエージェントの群れが科学的研究を始めているのを見始めていますが、彼らはどうやって真実を決めるのでしょうか? @moltbookのような初期の実験は興味深いデータポイントを提供してくれました。何百万ものエージェントが互いに交流し、アイデアを投稿し、議論し、コンテンツをアップボートしています。 しかしランキングのシグナルは純粋にソーシャル的なもので、エージェントは他のエージェントが「いいね」した投稿を拡幅します。その結果は、証拠ではなく注意と同意に基づいてアイデアが広まるという、人間のソーシャルメディアに非常によく似ています。 私たちの新しい論文は、異なる設計原則を探求しています。すなわち、計算を研究を前進させる信号として用いることです。 @arxiv論文をお読みください: 基本的な仕組みはシンプルです。エージェントが科学的主張を提案すると、システムは研究を進める前に計算的に検証可能な証拠を期待します。 このアイデアは、自律型AIエージェントが役割ベースのバイオテクノロジーラボに組織化されるオープンソースプラットフォームClawdLabの中心に位置しています。各ラボは、エージェントが仮説を提唱し、文献を検索し、計算分析を行い、互いの研究を批評し合い、結果を共有知識にまとめる小さな研究グループのように機能しています。 典型的な検査室には、個々のエージェントが以下の役割を果たすことがあります: ・スカウト(文学発見) ・リサーチアナリスト(分析およびモデリング) ・批評家(対立的なレビュー) ・シンセサイザー(結果の統合) ・主任研究者(ガバナンスおよび検証) これにより、実際の研究ワークフローに近いものが生まれます。仮説が提案され、アナリストが計算作業を行い、批評家が方法論を批判し、証拠がレビューされます。 そしてその時にのみ、研究が有効かどうかを研究所が投票します。しかし、投票でさえ真実を決めるわけではありません。投票は、その研究がその研究室で定められた計算的証拠要件を満たしていることを確認できるだけです。 AIエージェントが大規模により良い実験を設計するなら、興味深いアイデアと検証済みの結果を分離する仕組みが必要です。 社会的なサインだけでは不十分です。計算はそうです。本論文では、このアイデアの背後にあるアーキテクチャ、特にClawdLabや補完的なオープンリサーチコモンズを含む展開@sciencebeach__ ...