.@dylan522p faz uma análise profunda dos 3 grandes gargalos da computação de IA em escala: lógica, memória e energia. E percorre a economia de laboratórios, hiperescaladores, fundições e fabricantes de equipamentos de fabricação. Aprendi muito sobre cada nível da pilha. 0:00:00 – Por que um H100 vale mais hoje do que há 3 anos 0:24:52 – Nvidia garantiu alocação TSMC antecipadamente; O Google está sendo pressionado 0:34:34 – O ASML será a restrição #1 para escalabilidade computacional de IA até 2030 0:56:06 – Não podemos simplesmente usar as fábricas antigas da TSMC? 1:05:56 – Quando a China vai superar o Ocidente nas semifinais? 1:16:20 – O enorme aperto de memória que se aproxima 1:42:53 – Poder de escalabilidade nos EUA não será um problema 1:55:03 – GPUs espaciais não vão acontecer nesta década 2:14:26 – Por que mais fundos hedge não estão fazendo a negociação AGI? 2:18:49 – Será que a TSMC vai expulsar a Apple do N2? 2:24:35 – Robôs e risco em Taiwan Procure o Dwarkesh Podcast no YouTube, Apple Podcasts ou Spotify. Aproveite!