Trend Olan Konular
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

Chris Laub
🚨 NVIDIA imkansızı başardı.
12B parametreli bir dil modelini 10 trilyon token üzerinde tamamen 4 bit hassasiyetle eğittiler.
Buna NVFP4 adı veriliyor ve sınır yapay zeka modellerinin nasıl eğitildiğini yeniden tanımlayabilir.
İşte bunun neden önemli olduğu:
• NVFP4, FP8'e kıyasla ×2-3 daha hızlı matematik verimi ve %50 daha az bellek sunar
•Doğruluk? Pratik olarak aynı. (MMLU-Pro: FP8 = %62,62, NVFP4 = %62,58)
• Kararlılık sorunları? Rastgele Hadamard dönüşümleri, stokastik yuvarlama ve 2B ölçeklendirme kullanılarak çözüldü
• Tamamen NVIDIA Blackwell GPU'lar üzerinde eğitilen ilk 4 bit, 10T belirteçte kararlı çalışır
Bu, doğruluğu kaybetmeden büyük ölçekli 4 bitlik ön eğitimin ilk başarılı gösterimidir.
Yeni nesil sınır modelleri ödün vermeden daha hızlı, daha ucuz ve daha çevreci olacak.

57
MIT, yapay zeka ve ML üzerine 12 kitap sunmaktadır (indirmek ücretsiz):
1. Makine Öğreniminin Temelleri
2. Derin Öğrenmeyi Anlamak
3. ML için Algoritmalar
4. Pekiştirici Öğrenme
5. Makine Öğrenimi Sistemlerine Giriş
6. Derin Öğrenme
7. Dağılımsal Pekiştirme Öğrenmesi
8. Çok Ajanlı Pekiştirme Öğrenmesi
9. Yapay Zeka'nın Uzun Oyununda Ajanlar
10. Adalet ve Makine Öğrenimi
İnternette ücretsiz duran ML dersleri için yılda 50.000 dolar ödüyorsunuz.
Bunu yer imlerine ekleyin. Paylaş.


64
🚨 SON VERİCİ: Bir Google araştırmacısı ve Turing Ödülü sahibi bir kişi, yapay zekadaki gerçek krizi ortaya çıkaran bir makale yayımladı.
Bu eğitim değil. Bu çıkarım. Ve kullandığımız donanım hiç bunun için tasarlanmamıştı.
Makale Xiaoyu Ma ve David Patterson tarafından hazırlanmıştır. IEEE Computer tarafından kabul edildi, 2026.
Hiçbir abartı yok. Ürün lansmanı yok. LLM'lere hizmet vermenin donanım seviyesinde neden temelde bozuk olduğuna dair bir soğuk özet.
Temel argüman acımasız:
→ GPU FLOPS'u 2012'den 2022'ye kadar 80 kat arttı
→ Bellek bant genişliği aynı dönemde sadece 17 kat arttı
→ GB başına HBM maliyetleri ARTIYOR, düşmek yerine
→ Kod çözme aşaması belleğe bağlıdır, hesaplama sınırlıdır
→ Eğitim için tasarlanmış çipler üzerinde çıkarım yapıyoruz
İşte en çılgın kısım:
OpenAI, yaklaşık 5 milyar dolar zarar vererek 3,7 milyar dolar gelir elde etti. Dar boğaz model kalitesi değil. Bu, her kullanıcıya her token sunmanın maliyetidir. Çıkarımlar bu şirketleri tamamen tüketiyor.
Ve beş trend aynı anda durumu daha da kötüleştiriyor:
→ MoE modelleri, DeepSeek-V3 gibi 256 uzmanın patlayan belleği ile
→ Cevaplamadan önce devasa düşünce zincirleri oluşturan akıl yürütme modelleri
→ Çok modlu girişler (görüntü, ses, video) metni gölgede bırakıyor
→ Uzun bağlamlı pencereler KV önbelleklerini zorlamaktadır
→ RAG pipeline'lar istek başına daha fazla bağlam enjekte ediyor
Dört önerdikleri donanım değişikliği:
→ Yüksek Bant Genişliği Flashı: HBM seviyesinde 512GB yığınlar, düğüm başına 10 kat daha fazla bellek
→ İşleme-Yakın Bellek: mantık kalıpları aynı çip üzerinde değil, belleğin yanına yerleştirilir
→ 3D Bellek-Mantık Yığma: HBM'den 2-3 kat daha az güç sağlayan dikey bağlantılar
→ Düşük Gecikmeli Bağlantı: daha az hop, ağ içi hesaplama, SRAM paket tamponları
Cerebras ve Groq gibi SRAM tabanlı çipleri deneyen şirketler zaten başarısız oldu ve DRAM'i geri eklemek zorunda kaldı.
Bu gazete bir ürün satmıyor. Tüm donanım darboğazını haritalıyor ve şöyle diyor: sektör yanlış sorunu çözüyor.
Gazete Ocak 2026'da çıktı. İlk yorumdaki 👇 bağlantı


217
En İyiler
Sıralama
Takip Listesi
