Trend-Themen
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

Chris Laub
MIT bietet 12 Bücher über KI & ML (KOSTENLOS HERUNTERLADEN):
1. Grundlagen des maschinellen Lernens
2. Verständnis des tiefen Lernens
3. Algorithmen für ML
4. Verstärkendes Lernen
5. Einführung in maschinelle Lernsysteme
6. Tiefes Lernen
7. Verteiltes verstärkendes Lernen
8. Multi-Agenten-Verstärkungslernen
9. Agenten im langfristigen Spiel der KI
10. Fairness und maschinelles Lernen
Sie zahlen 50.000 $/Jahr für ML-Kurse, die kostenlos im Internet verfügbar sind.
Setzen Sie ein Lesezeichen. Teilen Sie es.


10
🚨 BREAKING: Ein Google-Forscher und ein Turing-Preisträger haben gerade ein Papier veröffentlicht, das die wahre Krise in der KI aufdeckt.
Es geht nicht um das Training. Es geht um die Inferenz. Und die Hardware, die wir verwenden, wurde nie dafür entworfen.
Das Papier stammt von Xiaoyu Ma und David Patterson. Akzeptiert von IEEE Computer, 2026.
Kein Hype. Kein Produktlaunch. Nur eine kalte Analyse, warum das Bereitstellen von LLMs auf Hardware-Ebene grundlegend fehlerhaft ist.
Das zentrale Argument ist brutal:
→ GPU FLOPS wuchsen von 2012 bis 2022 um das 80-fache
→ Der Speicherbandbreite wuchs im gleichen Zeitraum nur um das 17-fache
→ Die Kosten für HBM pro GB steigen, nicht fallen
→ Die Dekodierungsphase ist speichergebunden, nicht rechengebunden
→ Wir bauen Inferenz auf Chips, die für das Training entworfen wurden
Hier ist der verrückteste Teil:
OpenAI hat ungefähr 5 Milliarden Dollar bei 3,7 Milliarden Dollar Umsatz verloren. Der Engpass ist nicht die Modellqualität. Es sind die Kosten, jedes einzelne Token an jeden einzelnen Nutzer zu liefern. Die Inferenz bringt diese Unternehmen zur Neige.
Und fünf Trends verschärfen die Situation gleichzeitig:
→ MoE-Modelle wie DeepSeek-V3 mit 256 Experten sprengen den Speicher
→ Denkmodelle erzeugen massive Gedankenketten, bevor sie antworten
→ Multimodale Eingaben (Bild, Audio, Video) übertreffen den Text
→ Lange Kontextfenster belasten die KV-Caches
→ RAG-Pipelines injizieren mehr Kontext pro Anfrage
Ihre vier vorgeschlagenen Hardware-Änderungen:
→ High Bandwidth Flash: 512GB-Stapel mit HBM-Level-Bandbreite, 10X mehr Speicher pro Knoten
→ Processing-Near-Memory: Logikchips neben dem Speicher, nicht auf demselben Chip
→ 3D Memory-Logic Stacking: vertikale Verbindungen, die 2-3X weniger Energie als HBM verbrauchen
→ Low-Latency Interconnect: weniger Hops, In-Network-Computing, SRAM-Paketpuffer
Unternehmen, die nur SRAM-Chips wie Cerebras und Groq ausprobiert haben, sind bereits gescheitert und mussten DRAM wieder hinzufügen.
Dieses Papier verkauft kein Produkt. Es kartiert den gesamten Hardware-Engpass und sagt: Die Branche löst das falsche Problem.
Papier veröffentlicht im Januar 2026. Link im ersten Kommentar 👇


137
BREAKING: Jemand hat gerade das ultimative Startup-Toolkit kostenlos veröffentlicht.
Es heißt Founders Kit und enthält alle Ressourcen, die ein Gründer benötigt, um von der Idee bis zum Börsengang zu gelangen.
Paul Graham Essays. YC-Kurse. Beispiele für Pitch-Decks. Leitfäden zur Mittelbeschaffung. Über 200 Tools in den Bereichen Design, Analytik, Automatisierung und Marketing.
Kein Paywall. Kein Newsletter-Zugang. Kein BS.
100% Open Source.

94
Top
Ranking
Favoriten
