Om detta är sant skulle det automatiskt validera två saker – 1. TPU:er har verkligen fått Nvidia att erkänna anpassade AI-acceleratorer som ett giltigt hot. Inferenskostnader är verkliga och GPU:er behöver kompletterande stöd för att göra end-to-end-servering möjlig. 2. Viktigare är att detta kommer att fungera som den adrenalinkick för varje företag som investerar i sina egna chip och andra AI-acceleratorer. Om det stämmer blir det väldigt intressant att se hur CUDA tillämpas på dataflödesparadigmet. Väntar ivrigt!!