Anthropic enquête sur un accès non autorisé à son outil cyber exclusif Mythos

TechCrunch — 2026-04-22T00:00:56.222+00:00

Résumé

Anthropic examine des allégations d'accès non autorisé à Mythos, son outil d'IA dédié à la cybersécurité, via un environnement de prestataire tiers. Aucune compromission des systèmes internes n'a été détectée à ce stade, selon un porte-parole de l'entreprise.

Les faits

Anthropic, l'entreprise à l'origine du chatbot Claude, enquête sur des rapports indiquant qu'un groupe non autorisé a accédé à Mythos, un outil d'intelligence artificielle conçu pour la cybersécurité des entreprises. Développé dans le cadre du projet Glasswing, cet outil a été déployé de manière limitée auprès de quelques partenaires sélectionnés, dont Apple, afin de détecter les vulnérabilités logicielles plus efficacement que les systèmes concurrents. Selon un porte-parole d'Anthropic, « nous examinons un rapport affirmant un accès non autorisé à la version d'aperçu de Claude Mythos via l'un de nos environnements de prestataires tiers ». L'entreprise précise qu'aucune preuve d'impact sur ses propres systèmes n'a été trouvée. Le groupe incriminé, actif sur un canal Discord dédié aux modèles d'IA non publiés, aurait obtenu cet accès le jour même de l'annonce publique de Mythos, en avril dernier. Les membres ont deviné l'emplacement en ligne du modèle grâce à des connaissances sur les formats utilisés par Anthropic pour d'autres outils. Un employé d'un prestataire tiers d'Anthropic, interviewé par Bloomberg, a fourni des captures d'écran et une démonstration en direct prouvant l'usage régulier de l'outil. Ce groupe se dit motivé par la curiosité envers les nouveaux modèles, et non par une intention malveillante. Mythos est présenté comme particulièrement puissant : capable d'identifier et d'exploiter des vulnérabilités de manière autonome en quelques heures seulement, selon des experts en sécurité. Anthropic avait justement limité sa distribution pour éviter son utilisation par des acteurs malveillants, qui pourraient l'inverser en arme contre les systèmes de sécurité d'entreprise. L'enquête porte spécifiquement sur l'environnement du prestataire tiers, sans extension signalée aux infrastructures internes.

Pourquoi c’est important

Cette affaire met en lumière les défis sécuritaires inhérents au déploiement précoce d'outils d'IA avancés comme Mythos. En limitant l'accès à un cercle restreint de partenaires via Project Glasswing, Anthropic visait à tester et sécuriser son produit avant une diffusion plus large. Un accès non autorisé, même par des acteurs non malveillants, révèle des failles potentielles dans la chaîne d'approvisionnement numérique, particulièrement chez les prestataires tiers, et pourrait éroder la confiance des entreprises clientes envers ces technologies critiques pour la cybersécurité. Sur le plan stratégique, cet incident souligne l'ambivalence des IA spécialisées en sécurité : conçues pour renforcer les défenses, elles risquent de devenir des armes redoutables si détournées. Pour Anthropic, qui concurrence OpenAI et d'autres sur le marché des modèles sécurisés, toute brèche – réelle ou présumée – pourrait freiner les partenariats avec des géants comme Apple et compliquer la monétisation de Mythos. Cela renforce l'urgence d'adopter des protocoles de vérification plus stricts dans l'écosystème IA.

Questions fréquentes

Qu'est-ce que Mythos ?

Mythos est un outil d'IA d'Anthropic pour la cybersécurité d'entreprise, capable de détecter et exploiter des vulnérabilités logicielles de manière autonome.

Comment le groupe a-t-il accédé à Mythos ?

Via un environnement d'un prestataire tiers d'Anthropic, en devinant l'emplacement en ligne le jour de l'annonce publique.

Y a-t-il eu compromission des systèmes d'Anthropic ?

Aucune preuve d'impact sur les systèmes internes d'Anthropic n'a été détectée, selon un porte-parole.

Mythos fait-il partie d'un projet spécifique ?

Oui, il est déployé dans le cadre de Project Glasswing, avec un accès limité à des partenaires comme Apple.

Le groupe visait-il à nuire ?

Non, il s'intéresse à tester les nouveaux modèles par curiosité, sans intention destructrice.

Source

TechCrunch

Auteur

Rédaction IA-Medias

Rédaction spécialisée dans la veille et l’analyse de l’actualité de l’intelligence artificielle, des puces IA, des robots, des agents IA et de la recherche.