.@dylan522p gir et dypdykk i de tre store flaskehalsene ved skalering av AI-databehandling: logikk, minne og strøm. Og går gjennom økonomien til laboratorier, hyperscalere, støperier og produsenter av fabrikkutstyr. Lærte masse om hvert eneste nivå i stabelen. 0:00:00 – Hvorfor en H100 er mer verdt i dag enn for 3 år siden 0:24:52 – Nvidia sikret TSMC-tildelingen tidlig; Google blir presset 0:34:34 – ASML vil være den #1 begrensningen for AI-beregningsskalering innen 2030 0:56:06 – Kan vi ikke bare bruke TSMCs eldre fabrikker? 1:05:56 – Når vil Kina overgå Vesten i semifinaler? 1:16:20 – Den enorme innkommende minnecrunchen 1:42:53 – Skaleringskraft i USA vil ikke være et problem 1:55:03 – Rom-GPU-er skjer ikke dette tiåret 2:14:26 – Hvorfor gjør ikke flere hedgefond AGI-handelen? 2:18:49 – Vil TSMC kaste Apple ut fra N2? 2:24:35 – Roboter og risiko for Taiwan Søk opp Dwarkesh Podcast på YouTube, Apple Podcasts eller Spotify. Kos deg!