L’entreprise d’intelligence artificielle Anthropic a annoncé avoir conclu un nouvel accord de collaboration avec Google et Broadcom, afin d’intégrer une puissance de calcul de prochaine génération pour les TPU (Tensor Processing Unit) au niveau de plusieurs gigawatts (gigawatts). Anthropic prévoit de pouvoir obtenir environ 3,5 gigawatts de ressources de calcul TPU à partir de 2027, devenant ainsi une infrastructure de base essentielle pour le développement futur de ses modèles Claude.
Claude fait aussi partie des rares modèles déployés simultanément sur les trois grandes plateformes cloud : AWS (Bedrock), Google Cloud (Vertex AI) et Microsoft Azure (Foundry).
Les revenus annuels d’Anthropic ont déjà dépassé 30 milliards de dollars
D’après les données opérationnelles, la croissance d’Anthropic est entrée dans une phase d’accélération. La société indique qu’en 2026, ses revenus annualisés ont déjà dépassé 30 milliards de dollars, en forte hausse par rapport aux environ 9 milliards de dollars de fin 2025 ; en outre, le nombre de clients d’entreprise dont les dépenses annuelles dépassent 1 million de dollars est passé de 500 en février à plus de 1 000 en à peine deux mois, ce qui montre que l’adoption de l’IA générative par les grandes entreprises se diffuse rapidement.
La majeure partie de cette nouvelle capacité de calcul sera déployée à l’intérieur des États-Unis, ce qui élargit encore le plan d’investissement d’Anthropic de 50 milliards de dollars dans la puissance de calcul américaine annoncé en novembre 2025. Anthropic souligne qu’elle adopte une stratégie multi-puce : en parallèle, elle exécute la charge de travail sur Trainium d’Amazon Web Services, des TPU de Google et des GPU NVIDIA, afin d’améliorer les performances et la résilience du système.
À l’heure actuelle, Claude fait aussi partie des rares modèles déployés simultanément sur les trois grandes plateformes cloud : AWS (Bedrock), Google Cloud (Vertex AI) et Microsoft Azure (Foundry).
WSJ : Anthropic peut obtenir 3,5 gigawatts de puissance de calcul TPU
Le WSJ révèle plus avant les détails matériels et de la chaîne d’approvisionnement à l’origine de cette collaboration. Selon le rapport, Broadcom sera chargé de développer et de fournir des puces TPU personnalisées pour Google, et fournira également des équipements réseau et des composants liés aux racks de centres de données ; la durée de la collaboration s’étend jusqu’en 2031, dans le cadre d’une partie d’accord de garantie d’approvisionnement à long terme.
Dans ce cadre, Anthropic prévoit de pouvoir obtenir environ 3,5 gigawatts de ressources de calcul TPU à partir de 2027. Broadcom indique en même temps que cette allocation de capacité de calcul dépend toujours des performances commerciales futures d’Anthropic, ce qui montre que la fourniture de puissance de calcul est étroitement liée à la croissance des revenus.
Le WSJ indique aussi que Google pousse activement l’expansion de l’écosystème TPU, espérant, grâce à des modes de fourniture et de coopération avec des partenaires, transformer ses puces IA conçues en interne d’un simple outil interne en un produit destiné au marché, afin de rivaliser davantage avec les infrastructures d’IA dominées par les GPU. Dans ce contexte, Anthropic devient un client clé : non seulement elle favorise l’expédition de TPU, mais elle renforce aussi la capacité de Google à peser dans le marché des capacités de calcul IA.
Cet article « Anthropic et Broadcom/Google : obtiennent une puissance de calcul TPU de 3,5 gigawatts » est apparu pour la première fois sur Chaîne d’actualités ABMedia.