Mistral dévoile Medium 3.5, son modèle phare fusionnant chat, raisonnement et codage

Publié le 2026-05-02T08:04:26.468+00:00 — D'après The Decoder (2026-05-01T08:21:14+00:00)

Résumé

Mistral AI lance Medium 3.5, un modèle dense de 128 milliards de paramètres intégrant instructions, raisonnement et codage en un seul poids. Disponible en préversion publique avec poids ouverts, il équipe Vibe et Le Chat, avec agents distants et mode Work pour tâches complexes.

Les faits

Mistral AI annonce Mistral Medium 3.5, son premier modèle phare fusionné, disponible dès aujourd'hui en préversion publique dans Mistral Vibe et Le Chat. Ce modèle dense de 128 milliards de paramètres offre une fenêtre de contexte de 256 000 tokens, gérant instructions, raisonnement et codage via un unique ensemble de poids. Il excelle en usage réel, avec un auto-hébergement possible sur seulement quatre GPU, et un effort de raisonnement configurable par requête. Sur le banc d'essai SWE-Bench Verified, Medium 3.5 atteint 77,6 %, surpassant Devstral 2 et des modèles comme Qwen3.5 397B. Il brille aussi en capacités agentiques, avec 91,4 sur τ³-Telecom, et convient aux tâches longues impliquant appels multiples d'outils et sorties structurées. L'encodeur de vision, entraîné de zéro, traite des images de tailles et ratios variables. Parallèlement, Mistral déploie des agents de codage distants dans Vibe, exécutés dans le cloud de manière asynchrone, lancés via CLI ou Le Chat. Le nouveau mode Work dans Le Chat, alimenté par Medium 3.5, gère des tâches multi-étapes comme recherche ou analyse, avec outils activés par défaut et approbations pour actions sensibles. Les poids ouverts sont sur Hugging Face sous licence MIT modifiée, au tarif API de 1,5 dollar par million de tokens d'entrée et 7,5 pour la sortie.

Pourquoi c’est important

Cette sortie marque un tournant pour Mistral AI, qui unifie désormais chat, raisonnement et codage dans un modèle unique et ouvert, réduisant la fragmentation des usages IA. Avec des performances supérieures sur benchmarks critiques comme SWE-Bench, Medium 3.5 renforce la compétitivité européenne face aux géants américains, tout en facilitant l'auto-hébergement et les déploiements cloud asynchrones via Vibe. Stratégiquement, l'intégration d'agents distants et du mode Work dans Le Chat cible les professionnels, automatisant workflows complexes et productivité. Disponible sur plans Pro, Team et Enterprise, cette avancée accélère l'adoption en entreprise, positionnant Mistral comme leader en IA agentique accessible et souveraine.

Questions fréquentes

Quelles sont les performances de Mistral Medium 3.5 ?

77,6 % sur SWE-Bench Verified, devant Devstral 2 ; 91,4 sur τ³-Telecom pour capacités agentiques.

Où est disponible Medium 3.5 ?

En préversion publique dans Vibe et Le Chat ; poids ouverts sur Hugging Face ; API à 1,5 $/M input, 7,5 $/M output.

Quelles nouveautés pour Vibe et Le Chat ?

Agents distants cloud asynchrones dans Vibe ; mode Work agentique multi-étapes dans Le Chat.

Combien de paramètres a Medium 3.5 ?

128 milliards, dense, avec 256k contexte ; auto-hébergeable sur 4 GPU.

Source

The Decoder

Auteur

Rédaction IA-Medias

Rédaction spécialisée dans la veille et l’analyse de l’actualité de l’intelligence artificielle, des puces IA, des robots, des agents IA et de la recherche.