Als dit waar is, zou dit automatisch twee dingen valideren - 1. TPUs hebben Nvidia echt doen erkennen dat aangepaste AI-versnellers een geldige bedreiging vormen. De kosten voor inferentie zijn reëel en GPU's hebben aanvullende ondersteuning nodig om de end-to-end service haalbaar te maken. 2. Belangrijker nog, dit zal fungeren als die adrenalineinjectie voor elk bedrijf dat investeert in hun eigen chips en andere AI-versnellers. Als het waar is, zal het echt interessant zijn om te zien hoe CUDA van toepassing is op het datastroomparadigma. Vol verwachting afwachtend!!