🚨 速報:Metaの研究者たちは、200万時間分の動画モデルを示しました。ラベルは付けていません。物理の教科書もありません。監督は全くありませんでした。 それから、壁の向こうに物体が消えて二度と戻ってこないクリップを見せられました。 モデルはそれを誤りとフラグ付けしました。🤯 物体の永続性を学んだのだ。形の一貫性。衝突ダイナミクス。完全に見ているからだ。 さらに驚くべきことに、たった1週間のユニークな動画で訓練されたモデルでも、物理違反検出において偶然以上の性能を達成しました。それは偶然ではありません。それは原則です。 論文からの重要な洞察は、モデルが生のピクセルではなく学習された表現空間で予測する場合にしか機能しないということです。モデルは圧縮され抽象化された内部世界モデルを構築し、それに対して予測しなければなりません。ピクセル空間の予測は失敗します。テキストで推論するマルチモーダルLLMは失敗します。抽象的な表現を構築しつつ欠損した感覚入力を予測するアーキテクチャだけが、神経科学者が予測符号化を説明するようなもので、物理的な直感を獲得します。 つまり、研究者たちがハードワイヤードされていると考えていたコア知識は、単に大規模な観察によるものかもしれません。赤ちゃんは物を見ることでオブジェクトの永続性を学びます。実は同じ原理がここでも当てはまります。 さて、ここが誰も話していない部分です。 もし観察だけでモデルに物理世界のルールを教えられるなら、同じ原理を生産システムに適用するとどうなるのでしょうか? 生産にも物理演算があります。 重力ではありません。しかしルールは一貫しています:どの設定が午前3時にインシデントを引き起こすか、どの設定の組み合わせが危険に相互作用するか、どのコードパスが負荷で静かに劣化するか、どのサービス変更が2ホップ先で故障を引き起こすかなどです。これらのパターンは数千の軌跡に埋め込まれています。コードプッシュ、メトリクスシフト、顧客チケット、インシデントタイムラインなどです。ほとんど誰にも見られずに。確かにラベルは貼られていません。 「サービスAがフラグXを起動していて、サービスBがCPUの70%を超えた場合、サービスCのレイテンシが6分以内に40%低下する」と書くランブックは誰も書いていません。しかし、そのパターンは存在します。繰り返し可能です。そして今、それはあなたの観測データに存在していますが、誰もそれを見つけるモデルを作っていないため、見えないままです。 それが@playerzeroaiが埋めようとしているギャップです。またテストランナーか。また警報閾値が出るのではない。生産世界モデルは、メタのモデルが重力を学習したのと同じように、蓄積された観察からどのものが壊れるかを学習します。テストカバレッジは確認しません。失敗の軌跡を予測します。 1週間の動画で、固体の物体は壁を通り抜けないことを学びました。 問題は、モデルが次にどこで故障するか予測し始めるまでに、どれだけの生産観察が必要かということです。 ...