Mistral dévoile Medium 3.5, son modèle phare fusionnant chat, raisonnement et codage
Publié le 2026-05-02T08:04:26.468+00:00 — D'après The Decoder (2026-05-01T08:21:14+00:00)
Résumé
Mistral AI lance Medium 3.5, un modèle dense de 128 milliards de paramètres intégrant instructions, raisonnement et codage en un seul poids. Disponible en préversion publique avec poids ouverts, il équipe Vibe et Le Chat, avec agents distants et mode Work pour tâches complexes.
Les faits
Mistral AI annonce Mistral Medium 3.5, son premier modèle phare fusionné, disponible dès aujourd'hui en préversion publique dans Mistral Vibe et Le Chat. Ce modèle dense de 128 milliards de paramètres offre une fenêtre de contexte de 256 000 tokens, gérant instructions, raisonnement et codage via un unique ensemble de poids. Il excelle en usage réel, avec un auto-hébergement possible sur seulement quatre GPU, et un effort de raisonnement configurable par requête. Sur le banc d'essai SWE-Bench Verified, Medium 3.5 atteint 77,6 %, surpassant Devstral 2 et des modèles comme Qwen3.5 397B. Il brille aussi en capacités agentiques, avec 91,4 sur τ³-Telecom, et convient aux tâches longues impliquant appels multiples d'outils et sorties structurées. L'encodeur de vision, entraîné de zéro, traite des images de tailles et ratios variables. Parallèlement, Mistral déploie des agents de codage distants dans Vibe, exécutés dans le cloud de manière asynchrone, lancés via CLI ou Le Chat. Le nouveau mode Work dans Le Chat, alimenté par Medium 3.5, gère des tâches multi-étapes comme recherche ou analyse, avec outils activés par défaut et approbations pour actions sensibles. Les poids ouverts sont sur Hugging Face sous licence MIT modifiée, au tarif API de 1,5 dollar par million de tokens d'entrée et 7,5 pour la sortie.
Pourquoi c’est important
Cette sortie marque un tournant pour Mistral AI, qui unifie désormais chat, raisonnement et codage dans un modèle unique et ouvert, réduisant la fragmentation des usages IA. Avec des performances supérieures sur benchmarks critiques comme SWE-Bench, Medium 3.5 renforce la compétitivité européenne face aux géants américains, tout en facilitant l'auto-hébergement et les déploiements cloud asynchrones via Vibe. Stratégiquement, l'intégration d'agents distants et du mode Work dans Le Chat cible les professionnels, automatisant workflows complexes et productivité. Disponible sur plans Pro, Team et Enterprise, cette avancée accélère l'adoption en entreprise, positionnant Mistral comme leader en IA agentique accessible et souveraine.
Questions fréquentes
Quelles sont les performances de Mistral Medium 3.5 ?
77,6 % sur SWE-Bench Verified, devant Devstral 2 ; 91,4 sur τ³-Telecom pour capacités agentiques.
Où est disponible Medium 3.5 ?
En préversion publique dans Vibe et Le Chat ; poids ouverts sur Hugging Face ; API à 1,5 $/M input, 7,5 $/M output.
Quelles nouveautés pour Vibe et Le Chat ?
Agents distants cloud asynchrones dans Vibe ; mode Work agentique multi-étapes dans Le Chat.
Combien de paramètres a Medium 3.5 ?
128 milliards, dense, avec 256k contexte ; auto-hébergeable sur 4 GPU.
Source
The DecoderAuteur
Rédaction IA-MediasRédaction spécialisée dans la veille et l’analyse de l’actualité de l’intelligence artificielle, des puces IA, des robots, des agents IA et de la recherche.