Google déploie ses puces TPU de huitième génération pour concurrencer Nvidia
Free Malaysia Today — 2026-04-23T12:18:07.097+00:00
Résumé
Google a annoncé ses puces de huitième génération, le TPU 8t pour l'entraînement et le TPU 8i pour l'inférence. Ces processeurs spécialisés offrent jusqu'à trois fois plus de rapidité en entraînement, 80 % de meilleure performance par dollar, et permettent de connecter plus d'un million de puces dans un seul cluster.
Les faits
Google a présenté mercredi ses puces Tensor Processing Unit de huitième génération, marquant une étape majeure dans sa stratégie d'indépendance technologique face à Nvidia. Le géant du cloud a opté pour une approche novatrice en proposant deux architectures distinctes : le TPU 8t, conçu pour l'entraînement massif de modèles d'intelligence artificielle, et le TPU 8i, optimisé pour l'inférence haute performance. Cette spécialisation répond aux besoins divergents des différentes phases du cycle de vie de l'IA, de la pré-entraînement à la mise en service en temps réel. Les performances annoncées sont impressionnantes. Google revendique une accélération jusqu'à trois fois supérieure pour l'entraînement des modèles, une amélioration de 80 % de la performance par dollar dépensé, et la capacité à orchestrer plus d'un million de TPUs au sein d'un seul cluster. Le TPU 8t intègre notamment une technologie de précision flottante 4-bit native, doublant le débit des unités de multiplication-accumulation tout en préservant la précision des modèles volumineux. Le TPU 8i, de son côté, dispose d'une mémoire SRAM embarquée trois fois supérieure à la génération précédente, réduisant significativement les temps d'inactivité lors du décodage de contextes longs. Ces nouvelles puces, fruit d'une décennie de développement et conçues en collaboration étroite avec Google DeepMind, seront disponibles en général plus tard dans l'année. Elles constituent des composants clés de l'AI Hypercomputer de Google Cloud, une architecture de supercalcul intégrée combinant matériel spécialisé, logiciels ouverts et modèles de consommation flexibles. Les deux puces supportent nativement les frameworks populaires comme JAX, PyTorch, vLLM et MaxText, offrant aux développeurs un accès direct au matériel sans surcharge de virtualisation.
Pourquoi c’est important
Cette annonce revêt une importance stratégique majeure dans l'écosystème de l'IA. Bien que Google ne remplace pas complètement Nvidia—la société s'engage même à proposer les dernières puces Vera Rubin de Nvidia plus tard cette année—elle consolide sa position de fournisseur cloud intégré capable de maîtriser l'ensemble de la chaîne technologique. Comme Microsoft et Amazon, Google construit ses propres puces pour réduire progressivement sa dépendance à Nvidia, tout en collaborant avec le géant des GPU pour optimiser l'efficacité des systèmes hybrides. Cette approche dual signale que les hyperscalers entrent dans une nouvelle phase de maturité technologique. L'enjeu économique et environnemental est considérable. En promettant une meilleure performance par dollar et une efficacité énergétique doublée, Google adresse deux préoccupations majeures des entreprises : le coût croissant de l'infrastructure IA et l'impact environnemental de l'entraînement de modèles massifs. La spécialisation des puces pour des tâches distinctes—entraînement versus inférence—représente une évolution architecturale significative, permettant une utilisation plus efficace des ressources. Pour les clients de Google Cloud, ces puces offrent une alternative viable à l'écosystème Nvidia, ouvrant la voie à une plus grande concurrence et à une potentielle réduction des coûts à long terme.
Questions fréquentes
Quelle est la différence entre le TPU 8t et le TPU 8i ?
Le TPU 8t est optimisé pour l'entraînement massif de modèles avec un débit de calcul élevé, tandis que le TPU 8i est conçu pour l'inférence avec une mémoire embarquée trois fois supérieure, réduisant la latence pour les applications temps réel.
Ces puces remplacent-elles les GPU Nvidia de Google Cloud ?
Non. Google utilise les TPU 8t et 8i pour compléter son infrastructure Nvidia existante. L'entreprise s'engage à proposer les dernières puces Vera Rubin de Nvidia plus tard cette année.
Quand seront disponibles le TPU 8t et le TPU 8i ?
Les deux puces seront disponibles en général plus tard en 2026. Les clients peuvent dès maintenant demander des informations pour préparer leurs déploiements.
Quels frameworks logiciels supportent ces nouvelles puces ?
Les TPU 8t et 8i supportent nativement JAX, PyTorch, vLLM, MaxText, SGLang et XLA, offrant aux développeurs un accès direct au matériel sans virtualisation.
Quel est le gain de performance annoncé par Google ?
Google revendique jusqu'à trois fois plus de rapidité en entraînement, 80 % de meilleure performance par dollar, et une efficacité énergétique doublée par rapport aux générations précédentes.
Source
Free Malaysia TodayAuteur
Rédaction IA-MediasRédaction spécialisée dans la veille et l'analyse de l'actualité de l'intelligence artificielle, des puces IA, des robots, des agents IA et de la recherche.