TPU (Tensor Processing Unit)
Puce specialisee concue par Google, optimisee specifiquement pour les calculs d'intelligence artificielle.
Le TPU (Tensor Processing Unit) est un circuit integre specifique (ASIC) concu par Google et optimise pour les operations de calcul tensoriel utilisees en machine learning.
Generations :
- • TPU v1 (2016) : inference uniquement
- • TPU v2/v3 : entrainement et inference
- • TPU v4 : utilise pour entrainer PaLM et Gemini
- • TPU v5e/v5p : derniere generation, plus efficace
Avantages par rapport aux GPU :
- • Optimises specifiquement pour le ML (operations matricielles)
- • Meilleur rapport performance/watt pour certaines taches
- • Disponibles via Google Cloud (pas besoin d'acheter)
Limites :
- • Proprietaires Google (pas achetables)
- • Moins flexibles que les GPU pour d'autres taches
- • Ecosysteme logiciel plus restreint (JAX/TensorFlow vs PyTorch)
Les TPU sont utilises pour entrainer les plus grands modeles de Google (Gemini) et sont disponibles a la location via Google Cloud pour les chercheurs et entreprises.