DeepSeek dévoile V4-Pro et V4-Flash : des modèles ouverts performants à prix défiant toute concurrence

The Decoder — 2026-04-24T08:35:28+00:00

Résumé

DeepSeek lance les modèles ouverts V4-Pro (1,6 billion de paramètres) et V4-Flash, rivalisant avec les leaders américains en raisonnement et capacités agentiques, tout en étant bien moins chers. Ces versions préliminaires sont déjà testables sur DeepSeek Chat et Hugging Face.

Les faits

DeepSeek, entreprise chinoise d'intelligence artificielle, a publié cette semaine les versions préliminaires de ses nouveaux modèles DeepSeek-V4-Pro et DeepSeek-V4-Flash. Le V4-Pro totalise 1,6 billion de paramètres (49 milliards actifs), tandis que le V4-Flash en compte 284 milliards (13 milliards actifs), avec une fenêtre de contexte d'un million de tokens pour les deux. Ces modèles open-weight excellent en mathématiques, sciences, codage et connaissances mondiales, surpassant tous les autres modèles ouverts et se rapprochant des performances des leaders fermés comme GPT-5 ou Gemini 3.1-Pro. Dans les benchmarks agentiques, DeepSeek-V4-Pro occupe la première place des modèles open-weight sur GDPval-AA, évaluation des tâches professionnelles réelles, et se classe sixième globalement, à proximité d'Anthropic Opus 4.6. DeepSeek affirme des avancées majeures en capacités agentiques, raisonnement et connaissances, avec un soutien partiel de puces Huawei, réduisant la dépendance aux fournisseurs américains comme Nvidia. Ces modèles succèdent à V3 (fin 2024) et R1 (janvier 2025), qui avait déjà ébranlé les marchés. Ils sont disponibles en préversion sur DeepSeek Chat, Hugging Face pour les poids ouverts, et via l'API pour les développeurs. Leur lancement intervient peu après la sortie de GPT-5.5 par OpenAI, dans un contexte où les rivaux augmentent leurs prix et limitent l'usage face à la montée des IA agentiques. DeepSeek positionne V4-Pro comme leader ouvert en codage agentique et rival direct des géants américains, démontrant la capacité chinoise à produire des alternatives viables et économiques.

Pourquoi c’est important

Ce lancement accentue la concurrence sino-américaine en IA, où DeepSeek démontre que des modèles ouverts chinois peuvent approcher les performances des offres fermées premium, tout en contournant les restrictions sur les puces via Huawei. À un coût quasi nul comparé aux hausses tarifaires des rivaux, V4 démocratise l'accès aux capacités agentiques avancées, favorisant l'innovation chez les développeurs et entreprises hors des géants de la Silicon Valley. Stratégiquement, cela pressure OpenAI, Anthropic et Google à justifier leurs prix élevés et limites d'usage, tout en boostant l'écosystème open-source. DeepSeek renforce ainsi la souveraineté technologique chinoise et pourrait accélérer une fragmentation du marché, où l'efficacité et l'ouverture priment sur la puissance brute.

Questions fréquentes

Quelles sont les tailles des modèles DeepSeek V4 ?

V4-Pro : 1,6 billion de paramètres (49B actifs) ; V4-Flash : 284 milliards (13B actifs), avec fenêtre de contexte d'un million de tokens.

Où tester DeepSeek V4 ?

Sur DeepSeek Chat pour la préversion, Hugging Face pour les poids ouverts, et via l'API DeepSeek.

Quelles performances revendique DeepSeek V4-Pro ?

Leader open-weight en agentique, maths, codage ; proche de GPT-5 et Gemini 3.1-Pro, n°1 sur GDPval-AA.

Quand DeepSeek V4 a-t-il été lancé ?

Versions préliminaires publiées le 24 avril 2026.

Quelle est la nouveauté technique de V4 ?

Soutien partiel par puces Huawei, réduisant la dépendance à Nvidia.

Source

The Decoder

Auteur

Rédaction IA-Medias

Rédaction spécialisée dans la veille et l’analyse de l’actualité de l’intelligence artificielle, des puces IA, des robots, des agents IA et de la recherche.