Hvis dette stemmer, vil dette automatisk bekrefte to ting – 1. TPU-er har virkelig fått Nvidia til å anerkjenne at tilpassede AI-akseleratorer er en reell trussel. Slutningskostnader er reelle, og GPU-er trenger tilleggsstøtte for å gjøre end-to-end-servering gjennomførbar. 2. Enda viktigere, dette vil fungere som adrenalinkicket for hvert selskap som investerer i sine egne brikker og andre AI-akseleratorer. Hvis det stemmer, blir det veldig interessant å se hvordan CUDA anvendes i dataflytparadigmet. Venter spent!!