Puces d'IA : l'ambition chinoise face aux restrictions américaines
- Next News
- 14 août 2025
- 3 min de lecture
L'industrie des puces d'IA a connu des développements rapides, notamment l'entrée des puces NVIDIA H20 et AMD MI308 sur le marché chinois. Cette situation s'inscrit dans un contexte politique et commercial complexe, dicté par les restrictions américaines, qui ont abouti à des compromis exceptionnels. Washington a permis la reprise des ventes à la condition qu'un pourcentage des revenus soit reversé au gouvernement américain. Cet arrangement a rouvert le marché chinois pour les deux entreprises américaines, mais il a aussi augmenté le coût pour les clients chinois, donnant un avantage aux alternatives locales, en particulier celles de Huawei.

.
Comparaison des performances et des applications techniques
La puce NVIDIA H20 La NVIDIA H20 est une version modifiée de l'architecture Hopper, conçue pour se conformer aux restrictions d'exportation américaines. Elle est dotée d'une mémoire HBM3 de 96 Go, d'une bande passante de près de 4 Téraoctets/s et d'une performance de 296 téraflops en précision FP8. Bien que ses performances soient inférieures à celles des puces H100/H200, ses spécifications la rendent idéale pour exécuter des modèles de langage volumineux dans des charges de travail d'inférence, notamment pour les services cloud qui exigent des réponses ultra-rapides pour des millions de requêtes simultanées. La combinaison d'une grande capacité de mémoire et d'une large bande passante en fait le choix privilégié des développeurs dans les environnements de production nécessitant une performance stable et une évolutivité, même si elle n'est pas la puce la plus adaptée pour les entraînements de modèles d'IA de pointe.
La puce AMD MI308 La puce AMD MI308 est basée sur l'architecture de calcul accéléré CDNA et a été modifiée pour respecter les restrictions d'exportation américaines vers la Chine. Elle prend en charge une mémoire HBM3 à large bande passante, garantissant une performance stable pour les tâches d'entraînement et d'inférence. Bien que sa performance globale soit inférieure à celle des processeurs phares MI300, elle est conçue pour offrir un équilibre optimal entre efficacité énergétique et capacité de traitement, ce qui en fait une option pratique pour les charges de travail d'IA moyennes à grandes dans les environnements de cloud computing. La puce MI308 bénéficie de l'écosystème open-source ROCm d'AMD, lui conférant la flexibilité nécessaire pour prendre en charge des frameworks logiciels populaires comme PyTorch et TensorFlow, et facilitant son intégration dans les systèmes cloud.
L'ascension des alternatives locales chinoises
Il est impossible d'ignorer les alternatives chinoises proposées par Huawei avec sa série Ascend, notamment les puces Ascend 910C/910D. Celles-ci sont soutenues par l'écosystème sophistiqué CloudMatrix, qui connecte des centaines d'accélérateurs au sein des centres de données. La puce Huawei 910C est un concurrent sérieux pour les tâches d'inférence, offrant une capacité de mémoire supérieure à la H20 dans certaines configurations et une intégration étroite avec les logiciels de Huawei comme MindSpore. Cette approche locale a gagné en popularité, notamment après le succès du modèle DeepSeek R1 sur des matrices de processeurs 910C, ce qui démontre la stratégie de Huawei de fournir des performances élevées en interconnectant plusieurs puces pour compenser l'écart technologique avec NVIDIA.
Les expéditions de la puce Huawei 910C vers des clients majeurs en Chine ont connu une forte croissance au cours des deux derniers trimestres, avec des commandes de grandes entreprises Internet comme ByteDance et Baidu, ainsi que de plusieurs sociétés de télécommunications chinoises. Ce phénomène est en train de redessiner la carte de l'adoption du matériel au sein des plateformes cloud locales.
Une concurrence féroce
La situation actuelle sur le marché chinois met en évidence de nouveaux arbitrages. D'une part, l'accord américain a permis le retour des puces H20 et MI308, mais il a imposé un fardeau financier direct de 15% sur la chaîne d'approvisionnement, que les fournisseurs sont susceptibles de répercuter sur les clients. D'autre part, les alternatives chinoises sont désormais prêtes pour l'inférence à grande échelle et l'entraînement partiel, avec des avantages clés tels que la disponibilité, la rapidité de livraison et le support local.
Un rapport du "Financial Times" a même souligné que la part de marché de NVIDIA en Chine a fortement diminué au cours des quatre dernières années en raison de l'ascension de Huawei, une évolution largement accélérée par les contrôles américains eux-mêmes. Dans ce contexte, les entreprises chinoises qui gèrent des modèles de langage volumineux dans des environnements de production sensibles tendent à adopter une stratégie hybride. Elles utilisent les processeurs Ascend pour les couches d'inférence où les clusters sont très efficaces, tout en réservant les plateformes équipées de H20/MI308 pour des tâches spécifiques qui tirent parti des écosystèmes logiciels CUDA/ROCm. Cette stratégie hybride est susceptible de se généraliser tant que le coût de la conformité réglementaire et la ponction financière de 15% continueront de peser sur les offres américaines, incitant les entreprises chinoises à rechercher des alternatives locales fiables.









Commentaires