Trend Olan Konular
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
Labs az önce 1,03 milyar dolar topladı. World Labs birkaç hafta önce 1 milyar dolar topladı. İkisi de dünya modellerine bahis yapıyor.
Ama neredeyse kimse bu terimle aynı şeyi ifade etmez.
Bana göre, işte beş dünya modeli kategorisi var.
---
1. Ortak Gömülü Öngörücü Mimari (JEPA)
Temsilciler: Labs (@ylecun), V-JEPA 2
Buradaki temel iddia, sadece piksel rekonstrüksiyonunun fiziksel anlayış için gereken soyutlamaları öğrenmek için verimsiz bir hedef olduğudur. LeCun bunu yıllardır söylüyor — geleceğin her pikselini tahmin etmek herhangi bir stokastik ortamda çözülemez. JEPA, bunun yerine öğrenilmiş bir gizli alanda tahmin ederek bunu atlatıyor.
Somut olarak, JEPA, video yamalarını temsillere eşleyen bir kodlayıcı eğitir, ardından piksel uzayında değil, o temsil alanında maskeli bölgeleri tahmin eden bir tahmin cihazını eğitir.
Bu çok önemli bir tasarım seçimidir.
Pikselleri yeniden inşa eden üretken bir model, doğası gereği öngörülemez olan düşük seviyeli detaylara (tam doku, ışık, yaprak konumu) bağlanmak zorunda kalır. Soyut gömmeler üzerinde çalışarak, JEPA, "topun masadan düşeceğini" yakalayabilir ve düştüğü her kareyi halüsinasyon görmeden yakalayabilir.
V-JEPA 2, şimdiye kadarki en net büyük ölçekli kanıt noktasıdır. Bu, 1M+ saatlik videoya kendi kendini denetleyen maskeli tahmin ile önceden eğitilmiş 1.2B parametreli bir model — etiket yok, metin yok. İkinci eğitim aşamasında işler ilginçleşiyor: DROID veri setinden sadece 62 saatlik robot verisi, sıfır atış planlamasını destekleyen eylem koşullu bir dünya modeli oluşturmak için yeterli. Robot, aday aksiyon sekansları oluşturur, bunları dünya modelinde ileriye doğru hareket ettirir ve tahmin edilen sonucu en iyi bir hedef görüntüsüne uyan olanı seçer. Bu, eğitim sırasında hiç görülmeyen nesneler ve ortamlar üzerinde işe yarar.
Veri verimliliği gerçek teknik başlıktır. 62 saat neredeyse hiçbir şey. Farklı videolar üzerinde kendi denetimli ön eğitimin, yeterli fiziksel ön bilgiyi öncülük edebileceğini, böylece çok az alana özgü veriye ihtiyaç duyulduğunu öne sürüyor. Bu, JEPA tasarımı için güçlü bir argüman — eğer temsilleriniz yeterince iyiyse, her görevi sıfırdan kaba kuvvetle yapmanıza gerek yok.
Labs, LeCun'un bu konuyu araştırmanın ötesine taşıma çabasıdır. Öncelikle sağlık ve robotik sektörlerini hedefliyorlar, bu da JEPA'nın sınırlı veri ile fiziksel akıl yürütme konusundaki gücü göz önüne alındığında mantıklı. Ama bu uzun vadeli bir bahis — CEO'ları ticari ürünlerin yıllar sonra olabileceğini açıkça söyledi.
---
2. Mekânsal Zeka (3B Dünya Modelleri)
Temsilci: World Labs (@drfeifei)
...
En İyiler
Sıralama
Takip Listesi
