Google dévoile les puces TPU v6 pour propulser les modèles d'intelligence artificielle de nouvelle génération
Publié le 2026-04-17T08:16:25.818+00:00 — D'après Ars Technica
Les faits
Google a annoncé le lancement de sa sixième génération de processeurs tensoriels (TPU v6), conçus spécifiquement pour accélérer l'entraînement et l'inférence des modèles d'intelligence artificielle les plus avancés. Ces puces, disponibles via le service cloud Google Cloud, offrent une performance multipliée par 4,7 par rapport à la génération précédente (TPU v5p), atteignant ainsi 926 téraflops en précision binaire (BF16). Elles intègrent des innovations comme une interconnexion optique 1,2 Tb/s par puce et une capacité mémoire doublée à 96 Go de HBM3e par die, permettant de gérer des modèles massifs dépassant les 10 billions de paramètres. Les TPU v6 sont optimisés pour les architectures d'IA de pointe, telles que les grands modèles de langage (LLM) et les systèmes multimodaux. Google met l'accent sur leur efficacité énergétique, avec une réduction de 67 % de la consommation par rapport aux TPU v5e, tout en supportant des topologies de pods géants comptant jusqu'à 9 216 puces interconnectées. Des clients comme Anthropic et xAI ont déjà testé ces puces pour leurs charges de travail intensives en IA. Selon Amin Vahdat, vice-président de Google Cloud pour les systèmes et la plateforme d'IA, « les TPU v6 représentent un bond en avant pour rendre l'IA accessible à grande échelle ». Disponibles dès à présent pour les partenaires prioritaires, elles s'inscrivent dans la stratégie d'expansion des data centers de Google, avec des déploiements prévus en Europe et en Asie. Ce lancement s'appuie sur l'écosystème logiciel de Google, incluant des outils comme JAX et Pathways, facilitant le passage des modèles existants vers cette nouvelle génération de matériel.
Pourquoi c’est important
Dans un contexte de course effrénée à la puissance de calcul pour l'IA, les TPU v6 renforcent la position de Google comme leader en infrastructure dédiée. Face à la concurrence de Nvidia, dont les GPU dominent le marché, Google propose une alternative hyperspécialisée et potentiellement plus économique pour les tâches d'IA, avec un coût par flop inférieur. Cela pourrait démocratiser l'accès aux modèles géants pour les entreprises, tout en consolidant l'écosystème Google Cloud, qui représente déjà un quart des revenus du groupe. Sur le plan stratégique, cette avancée accélère la maturité des applications IA d'entreprise, des agents autonomes aux simulations scientifiques. Elle souligne aussi l'enjeu de la souveraineté technologique : en misant sur des interconnexions optiques et une scalabilité massive, Google anticipe les besoins des data centers du futur, influençant les standards mondiaux de l'IA et potentiellement remodelant les alliances entre hyperscalers et acteurs de l'IA générative.
Source
Ars TechnicaAuteur
Rédaction IA-MediasRédaction spécialisée dans la veille et l’analyse de l’actualité de l’intelligence artificielle, des puces IA, des robots, des agents IA et de la recherche.