TPU (Tensor Processing Unit)
Le TPU sono circuiti integrati specifici (ASIC) progettati da Google per accelerare l'addestramento e l'inferenza dei modelli di Machine Learning, ottimizzando il calcolo tensoriale massivo.
Mentre le GPU (NVIDIA) sono nate per i videogiochi e poi si sono adattate all'AI, le TPU sono nate in laboratorio con un unico scopo: far correre l'intelligenza artificiale.
Google le usa per far funzionare tutti i suoi servizi, dalle ricerche al traduttore, fino all'addestramento di Gemini. Sono incredibilmente efficienti dal punto di vista energetico perché eliminano tutto ciò che non serve al calcolo matematico puro.
Per un'azienda, usare le TPU invece delle normali GPU può significare risparmiare milioni in elettricità e finire l'addestramento di un modello in giorni anziché mesi. È la 'forza bruta' silenziosa dietro gran parte dell'AI che usiamo ogni giorno.