.@dylan522p podrobně analyzuje tři hlavní úzká místa škálování AI výpočtů: logiku, paměť a výkon. A prochází ekonomikou laboratoří, hyperscalerů, sléváren a výrobců výrobního vybavení. Naučil jsem se spoustu o každé úrovni stacku. 0:00:00 – Proč má H100 dnes větší hodnotu než před 3 lety 0:24:52 – Nvidia si zajistila alokaci TSMC dříve; Google je pod tlakem 0:34:34 – ASML bude do roku 2030 #1 omezením pro škálování AI výpočetních systémů 0:56:06 – Nemůžeme prostě použít starší továrny TSMC? 1:05:56 – Kdy Čína překoná Západ v semifinále? 1:16:20 – Obrovský příchozí výpadek pamětí 1:42:53 – Škálovací síla v USA nebude problémem 1:55:03 – Vesmírné GPU se v tomto desetiletí nevyrábějí 2:14:26 – Proč více hedgeových fondů neobchoduje s AGI? 2:18:49 – Vyhodí TSMC Apple z N2? 2:24:35 – Roboti a riziko Tchaj-wanu Podívejte se na Dwarkesh Podcast na YouTube, Apple Podcasts nebo Spotify. Užijte si to!