.@dylan522p przedstawia głęboką analizę 3 głównych wąskich gardeł w skalowaniu obliczeń AI: logika, pamięć i moc. I omawia ekonomię laboratoriów, hyperskalowców, odlewni i producentów sprzętu fabrycznego. Nauczyłem się mnóstwo o każdym poziomie stosu. 0:00:00 – Dlaczego H100 jest dziś wart więcej niż 3 lata temu 0:24:52 – Nvidia zabezpieczyła alokację TSMC wcześnie; Google jest pod presją 0:34:34 – ASML będzie #1 ograniczeniem dla skalowania obliczeń AI do 2030 roku 0:56:06 – Czy nie możemy po prostu użyć starszych fabryk TSMC? 1:05:56 – Kiedy Chiny przewyższą Zachód w półprzewodnikach? 1:16:20 – Ogromny nadchodzący kryzys pamięci 1:42:53 – Skalowanie mocy w USA nie będzie problemem 1:55:03 – GPU do przestrzeni nie będą się zdarzać w tej dekadzie 2:14:26 – Dlaczego więcej funduszy hedgingowych nie podejmuje się handlu AGI? 2:18:49 – Czy TSMC wyrzuci Apple z N2? 2:24:35 – Ryzyko związane z robotami i Tajwanem Szukaj podcastu Dwarkesh na YouTube, Apple Podcasts lub Spotify. Miłego słuchania!