Rubriques tendance
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

川沐|Trumoo🐮
Un trader indépendant de blocage d’options sur actions par IA pour purement secondaire - Tout contenu ne constitue aucun conseil d’investissement - Ne participe pas à l’acceptation de promotions ou de publicités - Ne discutez pas en privé et ne touchez pas aux fonds de qui que ce soit
Aujourd'hui, j'ai passé la nuit à simuler le prochain GPU de génération Feynman de NVIDIA, prévu pour le 16 mars, et j'ai analysé les véritables intentions de NVIDIA, en compilant un rapport pour les patrons.
Rapport approfondi : « La transformation ultime de la puissance de calcul AI - le transfert de paradigme "lumière, stockage, calcul" sous l'architecture Feynman »
Date de publication : 1er mars 2026
Actifs clés : $NVIDIA, $SK Hynix, #Samsung, $TSM Taiwan Semiconductor, $AVGO Broadcom, #中际旭创, #新易盛
Thème d'investissement : De "l'extension de puce" à "l'emballage au niveau système (SiP)".
Résumé du rapport : Briser les limites physiques dans trois dimensions.
Dans le contexte de la conférence GTC 2026, NVIDIA a officiellement établi le chemin d'évolution de Rubin (2026) à Feynman (2028). Son intention stratégique centrale est désormais très claire : à travers l'empilement 3D (SoIC) et la technologie de photonique sur silicium (CPO), forcer les profits qui appartenaient auparavant aux chaînes d'approvisionnement en amont et en aval (stockage, réseau) à être "absorbés" à l'intérieur de l'emballage GPU, réalisant ainsi une transformation de fournisseur de puces à "entrepreneur de systèmes complets".
I. Chemin d'évolution des GPU NVIDIA : de "miniaturisation" à "empilement spatial".
L'évolution de l'architecture de NVIDIA est entrée dans le jeu physique de l'ère post-Moore :
Blackwell (2025) : Le dernier sommet de l'emballage 2.5D, principalement adapté aux modules optiques plug-in de 1,6T.
Rubin (2026) : L'année de HBM4. Introduction d'un processus amélioré de 3nm, première tentative d'intégration logique sur le Base Die (base).
Feynman (2028) : La forme ultime. Utilisation du processus A16 de TSMC (1,6nm) et de l'alimentation par l'arrière (BSPDN).
Innovation clé : Empiler verticalement la SRAM (LPU Dies) au-dessus du GPU.
Changement de rôle : Le GPU n'est plus seulement une unité de calcul, mais un système autonome doté d'une "autoroute (CPO)" et d'un "réservoir de grande capacité (3D SRAM)".
II. Chemin d'évolution du stockage (HBM & SRAM) : de "détaché" à "symbiotique".
1. Évolution technologique et changement de rôle.
HBM4 (2026/2027) : La largeur d'interface passe de 1024 bits à 2048 bits. Le changement le plus crucial est le transfert de pouvoir du Base Die (base logique). Les fabricants de stockage (SK Hynix/Samsung) doivent être profondément liés à $TSM Taiwan Semiconductor pour produire des bases logiques de niveau 5nm.
3D SRAM (2028) : L'architecture Feynman introduit les LPU Dies. Ce cache à large bande passante (80-100 To/s) prendra en charge 70 % des échanges de données de calcul en temps réel, entraînant une dégradation de HBM de "mémoire à accès fréquent" à "réservoir de grande capacité en arrière-plan".
2. Estimation de l'offre et de la demande : un trou noir EB sous une croissance de 40 % des GPU.
Avec un taux de croissance annuel composé de 40 % pour les GPU, en ajoutant la multiplication par deux de la capacité HBM par carte (192G \rightarrow 288G \rightarrow 576G) :
Demande de 3,63EB en 2026, offre de 2,8EB, écart de 22,9 %.
Demande dépassant 10EB en 2027, offre de 5,5EB, écart de 45 %.
Demande dépassant 28EB en 2028, offre de 11EB, écart de 61 %.
Jeu de capacité : SK Hynix, grâce à l'avantage de rendement de la technologie MR-MUF, prendra encore 60 % des commandes NVIDIA à l'ère HBM4. Samsung tente de renverser la situation à l'ère Feynman grâce à un service intégré "Foundry + Memory" (solution tout-en-un) avec des Logic Die personnalisés.
III. Chemin d'évolution des modules optiques : de "câble" à "moteur".
Les modules optiques font face à la restructuration d'identité la plus intense de l'histoire de l'industrie :
1. Saut en trois étapes : Pluggable \rightarrow LPO \rightarrow CPO
Pluggable : Touchant actuellement le mur de consommation de 1,6T.
LPO (2025-2026) : La forteresse de 新易盛. En éliminant le DSP, la consommation est réduite de 30 %, ce qui est la meilleure solution de transition pour résoudre le goulot d'étranglement thermique avant la production de masse de Feynman.
CPO (2027+) : Le champ de bataille ultime de Broadcom et 中际旭创. Comme illustré, le PIC (puce photonique) est directement lié au cœur de calcul via un mélange de SoIC.
2. Menaces substantielles et décalage de rôle.
Broadcom : Tirant parti de l'avantage de l'ASIC, tente de promouvoir "l'intégration au sein de la puce", détachant directement la valeur de l'ensemble des entreprises de modules optiques traditionnels.
中际旭创/新易盛 : L'intention stratégique est de progresser vers l'amont. 中际旭创, avec un taux d'auto-développement de 70 % pour les puces photoniques, se transforme d'une "usine d'assemblage" en "usine de moteurs optiques semi-conducteurs", cherchant ainsi à obtenir un statut de "deuxième fournisseur" ou de "fournisseur de services personnalisés" dans la chaîne d'approvisionnement CPO des puces Feynman.
IV. L'intention stratégique finale de NVIDIA : établir une forteresse au niveau physique.
À travers l'architecture Feynman, NVIDIA vise à réaliser trois monopoles stratégiques :
1. Se libérer de l'emprise du cycle DRAM : En empilant massivement la SRAM, réduire la dépendance à la bande passante HBM coûteuse, ce qui permet d'avoir un meilleur pouvoir de négociation et une redondance d'architecture lorsque les prix augmentent dans le cycle de stockage.
2. Assimiler l'écosystème d'interconnexion : Après l'intégration du CPO dans les puces Feynman, NVIDIA ne vend pas seulement des GPU, mais a également en réalité vendu les revenus d'interconnexion de 1,6T/3,2T qui appartenaient auparavant aux fabricants de modules.
3. Créer "une carte est un châssis" : Le processus A16 + l'alimentation par l'arrière + l'emballage 3D permettent à une seule puce Feynman d'avoir un débit équivalent à celui d'un petit châssis actuel. Cela oblige tous les géants du cloud en aval (Google, AWS) à n'acheter que ses solutions globales, sans pouvoir assembler des "pièces" via des modules auto-développés.
V. Conseils d'investissement : qui sont les gagnants de cette redistribution ?
Certitude absolue : SK Hynix & Samsung. Bien que la SRAM ait réduit la dépendance à la bande passante unitaire, le "manque de capacité" résultant de l'énorme augmentation de la puissance de calcul est un fait physique de niveau EB. Le bénéfice de 25 milliards de dollars de SK Hynix en 2026 n'est que le début.
Élasticité explosive : 新易盛 & 中际旭创. L'indicateur clé est le "taux de remplacement des puces auto-développées". Si 中际旭创 réussit à obtenir la certification SoIC de TSMC avant la production de masse des puces Feynman, il obtiendra un multiple d'évaluation similaire à celui des entreprises de propriété intellectuelle semi-conductrices (Re-rating). L'empilement de SRAM ne diminuera pas l'importance des modules optiques, mais les propulsera vers une position "décisive".
TSMC : C'est le plus grand gagnant. Car que ce soit le Feynman Die en bas ou le LPU Die en haut, ainsi que leur liaison hybride (Hybrid Bonding) entre les deux, tout doit être réalisé chez TSMC.
Contrôle du système : Broadcom. C'est le seul géant capable de rivaliser avec NVIDIA sur l'architecture CPO, adapté comme base défensive pour les réseaux AI.
Conclusion du rapport : Les puces Feynman de NVIDIA sont entièrement co-emballées avec les LPU Dies et PIC/EIC, réduisant ainsi la capacité de majoration des entreprises HBM et des modules optiques.



川沐|Trumoo🐮27 févr. 2026
$NVDA NVIDIA fera ses débuts avec la prochaine génération de puces GPU Feynman (nommée d'après le scientifique) lors de la conférence GTC le 3.16 du mois prochain.
En vérifiant les informations, un point intéressant est que NVIDIA $NVDA brise pour la première fois sa dépendance à 100% envers TSMC pour la génération Feynman, en externalisant 25% de la teneur en silicium (principalement dans les étapes I/O et d'emballage) à Intel $INTC.
Cependant, je ne prévois plus d'acheter Intel.
J'ai regardé un extrait de l'interview perdue de Steve Jobs en 1995, où il a dit quelque chose de très inspirant.
Les entreprises/personnes excellentes se concentrent sur les produits, le contenu, l'innovation (produit/contenu). (Dépensent principalement des fonds sur l'efficacité opérationnelle.)
Les entreprises médiocres/arriérées se concentrent sur les processus, la gestion, la bureaucratie (processus/gestion/bureaucratie), ce qui entraîne une marginalisation des produits. (Dépensent principalement des fonds sur l'efficacité de la gestion, les entreprises réussies.)
Jobs a souvent dit des choses similaires lorsqu'il était en vie.
Il est clair qu'Intel appartient à cette dernière catégorie, et je ne veux pas acheter non plus parce que le mois dernier, j'ai parié sur les résultats financiers d'Intel et j'ai été blessé, l'INTC54 a chuté directement à 45.
Un autre point est que par rapport à la génération précédente, la mémoire a doublé.
1,64K
$NVDA NVIDIA fera ses débuts avec la prochaine génération de puces GPU Feynman (nommée d'après le scientifique) lors de la conférence GTC le 3.16 du mois prochain.
En vérifiant les informations, un point intéressant est que NVIDIA $NVDA brise pour la première fois sa dépendance à 100% envers TSMC pour la génération Feynman, en externalisant 25% de la teneur en silicium (principalement dans les étapes I/O et d'emballage) à Intel $INTC.
Cependant, je ne prévois plus d'acheter Intel.
J'ai regardé un extrait de l'interview perdue de Steve Jobs en 1995, où il a dit quelque chose de très inspirant.
Les entreprises/personnes excellentes se concentrent sur les produits, le contenu, l'innovation (produit/contenu). (Dépensent principalement des fonds sur l'efficacité opérationnelle.)
Les entreprises médiocres/arriérées se concentrent sur les processus, la gestion, la bureaucratie (processus/gestion/bureaucratie), ce qui entraîne une marginalisation des produits. (Dépensent principalement des fonds sur l'efficacité de la gestion, les entreprises réussies.)
Jobs a souvent dit des choses similaires lorsqu'il était en vie.
Il est clair qu'Intel appartient à cette dernière catégorie, et je ne veux pas acheter non plus parce que le mois dernier, j'ai parié sur les résultats financiers d'Intel et j'ai été blessé, l'INTC54 a chuté directement à 45.
Un autre point est que par rapport à la génération précédente, la mémoire a doublé.
696
C'est un peu extrême, je viens de bloquer tout ce qui est lié à la crypto, j'ai quitté la plupart des groupes crypto.
Rester très concentré.
J'espère que les informations que je vois sur Twitter sont toutes des informations sur les actions AI, ne me montrez pas ces arnaques de faux échanges et ces blogueurs qui continuent à promouvoir des arnaques.


1,19K
Meilleurs
Classement
Favoris