トレンドトピック
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
この論文を一目で読み込む機会がありました。この論文は本当に素晴らしいです。
自動化の進展と人間の知能の継続的な重要性を、自動化コストと検証コストのギャップとして明確に定義した、AGI後の経済学論文は他に見たことがありません。
特に印象に残ったことが二つあります。
最初のサイクルは以下の通りです:
>専門家がエージェントを監督すると、訂正やラベル、そして「ハウツー」の知識を生み出します。それは訓練データやツールとして記録され、自動化コストを削減します。
>自動化が安くなるにつれて、企業は人をエージェントに置き換えています。それが特にエントリーレベルの職種での人材需要を下げてしまいます。
>経験が少なくなると、社会には有能な検証者が減り、検証コストも高くなります。
>、自動化コストと検証コストのギャップが拡大し、エージェントは人間が信頼できる監査を行えない領域(盲点)で活動できるようになっています。
>、その盲点では人間が厳密な修正フィードバックを提供できません。エージェントは測定可能な代理指標を最適化し続け、行動が本当の人間の意図から逸脱してしまうことがあります。
次に気になったのは「サービスとしての責任(Liability-as-a-Service)」という概念です。基本的には、ベンダーによるエージェントの展開には責任が伴い、エージェントが定められた方法で損害や損失、法的トラブルを引き起こした場合、ベンダーは(限度額を含みますが)支払うという責任が伴います。つまり、顧客はソフトウェアだけでなく補償対象となる結果を購入しているのです。これは基本的に、エージェントがユーザーと連携していないリスクを企業に内部化させています。 私はこの責任対サービス(Liability-as-a-Service)のコンセプトがとても気に入っています。なぜなら、私たちの@eigencloudプラットフォームのテーマはスラッシングと保険に基づいていたからです。@eigencloud上で展開されるサービスはステーキングされることを想定しており、サービスがユーザーに損害を与えた場合、そのサービスのステークは削減され、ユーザーベースで補償されます。ユーザーの事前購入時に。
ぜひ皆さんにこの論文を読んでいただきたいと思います!
トップ
ランキング
お気に入り
