トレンドトピック
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

Robert Youssef
🚨 速報:プリンストン大学は、わずか36回の会話でほとんど役に立たなかったAIを、非常にパーソナライズされたものに変えました。
AIに「それは間違いだ」と言ったり、同じ質問を二度繰り返したりするたびに、反応が最も価値のあるフィードバックであることを見逃しているのです。
今日構築されているすべてのAIシステムは、この問題を完全に無視しています。
プリンストン大学はこれを解決するOpenClaw RLというシステムを開発しました。
考え方はシンプルです:AIを修正すると、その場でその修正から学習します。エンジニアは関与していません。再訓練はありません。ただ、あなたがすでにしている会話だけです。
モデルは各返信後のあなたの反応を観察します:
>再リクエストは失敗を意味します
>スムーズな返信がうまくいった証拠です
時間が経つにつれて、あなたが何を求めているのかを正確に把握し、それに合わせて調整していきます。
彼らのテストでは:
>、AIアシスタントがほとんど役に立たなかったのが、わずか36回の会話で高度にパーソナライズされたものになりました
>採点アシスタントは、わずか24回のやり取りでより温かく詳細なフィードバックを書くことを覚えました
使われるだけで良くなった。
> パーソナライゼーションスコア:0.17
36回の会話後>:0.81
>再訓練もエンジニアも休憩時間もありません
>AIがまだ話しかけている間は機能します
あなたが今まで打った「違う、そういう意味じゃない」という苛立ちを打つ言葉は、ただの教訓だった。
AIはそれを守らなかっただけです。今までは。

209
🚨 速報:Metaの研究者たちは、200万時間分の動画モデルを示しました。ラベルは付けていません。物理の教科書もありません。監督は全くありませんでした。
それから、壁の向こうに物体が消えて二度と戻ってこないクリップを見せられました。
モデルはそれを誤りとフラグ付けしました。🤯
物体の永続性を学んだのだ。形の一貫性。衝突ダイナミクス。完全に見ているからだ。
さらに驚くべきことに、たった1週間のユニークな動画で訓練されたモデルでも、物理違反検出において偶然以上の性能を達成しました。それは偶然ではありません。それは原則です。
論文からの重要な洞察は、モデルが生のピクセルではなく学習された表現空間で予測する場合にしか機能しないということです。モデルは圧縮され抽象化された内部世界モデルを構築し、それに対して予測しなければなりません。ピクセル空間の予測は失敗します。テキストで推論するマルチモーダルLLMは失敗します。抽象的な表現を構築しつつ欠損した感覚入力を予測するアーキテクチャだけが、神経科学者が予測符号化を説明するようなもので、物理的な直感を獲得します。
つまり、研究者たちがハードワイヤードされていると考えていたコア知識は、単に大規模な観察によるものかもしれません。赤ちゃんは物を見ることでオブジェクトの永続性を学びます。実は同じ原理がここでも当てはまります。
さて、ここが誰も話していない部分です。
もし観察だけでモデルに物理世界のルールを教えられるなら、同じ原理を生産システムに適用するとどうなるのでしょうか?
生産にも物理演算があります。
重力ではありません。しかしルールは一貫しています:どの設定が午前3時にインシデントを引き起こすか、どの設定の組み合わせが危険に相互作用するか、どのコードパスが負荷で静かに劣化するか、どのサービス変更が2ホップ先で故障を引き起こすかなどです。これらのパターンは数千の軌跡に埋め込まれています。コードプッシュ、メトリクスシフト、顧客チケット、インシデントタイムラインなどです。ほとんど誰にも見られずに。確かにラベルは貼られていません。
「サービスAがフラグXを起動していて、サービスBがCPUの70%を超えた場合、サービスCのレイテンシが6分以内に40%低下する」と書くランブックは誰も書いていません。しかし、そのパターンは存在します。繰り返し可能です。そして今、それはあなたの観測データに存在していますが、誰もそれを見つけるモデルを作っていないため、見えないままです。
それが@playerzeroaiが埋めようとしているギャップです。またテストランナーか。また警報閾値が出るのではない。生産世界モデルは、メタのモデルが重力を学習したのと同じように、蓄積された観察からどのものが壊れるかを学習します。テストカバレッジは確認しません。失敗の軌跡を予測します。
1週間の動画で、固体の物体は壁を通り抜けないことを学びました。
問題は、モデルが次にどこで故障するか予測し始めるまでに、どれだけの生産観察が必要かということです。
Metaの論文は、その基準が誰も予想以上に低いかもしれないと示唆しています。

109
あなたのAIは、あなたが伝えたことを静かに忘れていました。
偶然ではありません。大声で。体系的に。最も重要な決断から始めましょう。
> 3ヶ月前に設定した制約は「Redisを絶対に使わないでください。クライアントが本来のイベント後に拒否しました」というものでした。消えた。GDPRの展開地域制限。消えた。カスケード失敗後に経験的に試したリトライの限界です。消えた。
> モデルはあなたに言わなかった。最近デフォルト設定を使い始めたばかりです。
> これを文脈腐敗と呼びます。そしてケンブリッジやインディペンデントの研究者たちは、その悪さを正確に定量化しました。
> 十分な時間稼働する生産型AIシステムは、最終的にはコンテキストを圧縮して新しい情報のスペースを作る。その圧縮は壊滅的に損失を伴います。彼らは直接テストしました。2,000件の事実を36.7の速度で圧縮すると×知識ベースの60%が永久に回復不可能となりました。幻覚じゃない。間違っていません。ただ消えただけだ。モデルは正直に、もうその情報を持っていないと報告していました。
> それからもっと悪いものを試したんだ。彼らは20の実際のプロジェクト制約を88ターンの対話に組み込み、長期プロジェクトで自然に現れる制約を、まさに本来のシステムのようにカスケード圧縮を適用しました。1回のラウンドで91%の保存率。2ラウンド終了後:62%。3ラウンド終了後:46%。
> モデルはずっと自信を持って動作していました。忘れ去られた制約を破る出力を生成したのです。エラー信号はありません。何の警告もなく。ただ、あなたの状況に合わない合理的なデフォルトへのサイレントリバートです。
> 彼らはこれを4つのフロンティアモデルでテストしました。クロード・ソネット 4.5、クロード・ソネット 4.6、オーパス、GPT-5.4。すべての骨が圧縮されて崩壊しました。これはモデルの問題ではありません。建築的なものだ。
→ 1回の圧縮パスで60%の事実が永久に失われます
→プロジェクトの制約の54%が3回の連鎖圧縮後に解消されました
→GPT-5.4は圧縮率2×で精度が0%に落ち込みました
→ Opusでさえ20×圧縮時の事実はわずか5%しか保持していません
→ インコンテキストメモリは7,000の事実で年間14,201ドル、代替の場合は年間56ドルです
AIラボもそれを知っています。彼らの解決策は、より大きなコンテキストウィンドウです。10Mトークンウィンドウはより大きなバケットです。まだバケツだ。圧縮は長期稼働のシステムでは避けられません。ウィンドウサイズは忘却がいつ始まるかを決めるだけで、それが起こるかどうかを決めるわけではありません。

184
トップ
ランキング
お気に入り