Trendande ämnen
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
🚨 BREAKING: En Google-forskare och Turingpristagare har precis publicerat en artikel som avslöjar den verkliga krisen inom AI.
Det är inte träning. Det är en slutsats. Och hårdvaran vi använder var aldrig designad för det.
Artikeln är skriven av Xiaoyu Ma och David Patterson. Godkänd av IEEE Computer, 2026.
Ingen hype. Ingen produktlansering. Bara en kall genomgång av varför det är fundamentalt trasigt på hårdvarunivå att servera LLM:er.
Kärnargumentet är brutalt:
→ GPU-FLOPS växte 80X från 2012 till 2022
→ Minnesbandbredden växte endast med 17X under samma period
→ HBM-kostnader per GB ÖKAR, inte NEDGÅNG.
→ Avkodningsfasen är minnesbunden, inte beräkningsbunden
→ Vi bygger slutsatser på chip designade för träning
Här är den vildaste delen:
OpenAI förlorade ungefär 5 miljarder dollar på 3,7 miljarder dollar i intäkter. Flaskhalsen är inte modellkvaliteten. Det är kostnaden för att leverera varje token till varje enskild användare. Slutsatser tömmer dessa företag på blod.
Och fem trender gör det värre samtidigt:
→ MoE-modeller som DeepSeek-V3 med 256 experter som exploderar minne
→ Resonemangsmodeller genererar massiva tankekedjor innan svar
→ Multimodala ingångar (bild, ljud, video) som överträffar texten
→ Långkontextfönster som spanar KV-cacher
→ RAG-pipelines injicerar mer kontext per förfrågan
Deras fyra föreslagna hårdvaruskiften:
→ Flash med hög bandbredd: 512 GB stackar på HBM-nivå, 10 gånger mer minne per nod
→ Processing-Near-Memory: logikkretsar placerade bredvid minnet, inte på samma chip
→ 3D minnes-logikstapling: vertikala anslutningar som levererar 2–3 gånger lägre effekt än HBM...


Topp
Rankning
Favoriter
