Delinea alerte sur les failles de sécurité des identités dans l'IA et propose des solutions concrètes
Publié le 2026-04-21T16:04:15.602+00:00 — D'après Axios
Les faits
Un nouveau rapport de Delinea met en lumière un paradoxe majeur en matière de sécurité de l'intelligence artificielle : si 87 % des organisations estiment leurs mesures de sécurité des identités adaptées à une automatisation à grande échelle par l'IA, 46 % reconnaissent des lacunes dans leur gouvernance des identités liées aux systèmes d'IA. Ce décalage, baptisé 'paradoxe de confiance en la sécurité de l'IA', s'explique par la rapidité d'intégration de l'IA agentique, qui dépasse les avancées en sécurité des identités. Les entreprises, sous pression pour rester compétitives, relâchent souvent les contrôles d'identité, accordent des privilèges permanents ou ignorent les identités non humaines (NHI), augmentant ainsi les vulnérabilités. Les risques s'amplifient avec les agents IA, dont 80 % des organisations peinent à comprendre les motifs des actions privilégiées. Ces agents peuvent demander des accès supplémentaires, interagir avec de nouveaux systèmes ou modifier dynamiquement leurs privilèges, échappant aux protocoles traditionnels conçus pour des utilisateurs humains. Les frameworks de sécurité classiques, basés sur des privilèges statiques et une supervision fragmentée, ne suivent pas le rythme de ces modèles opérationnels novateurs, laissant les entreprises exposées à des failles critiques au niveau de la couche identité. Pour remédier à ces problèmes, Delinea préconise un cadre de contrôle de sécurité des identités moderne : identifier toutes les identités, évaluer en continu les risques et appliquer des accès en temps réel dans les environnements humains, machines et IA. Cette approche vise à aligner la sécurité des identités sur l'adoption de l'IA, évitant les exceptions hasardeuses et les privilèges permanents qui compromettent la traçabilité et la responsabilité. Ce rapport s'inscrit dans un contexte plus large où les identités non humaines et le 'shadow AI' – utilisation d'outils IA non approuvés – posent des défis similaires, comme l'absence de visibilité sur les données sensibles partagées avec des modèles tiers, soulignant l'urgence d'étendre la gouvernance aux machines.
Pourquoi c’est important
Cette publication intervient à un moment critique où l'intégration accélérée de l'IA agentique transforme les modèles opérationnels des entreprises, exposant une faille structurelle : la sécurité des identités n'évolue pas au même rythme. En quantifiant le paradoxe de confiance – 87 % de satisfaction contre 46 % de carences avouées –, Delinea fournit un diagnostic précis qui oblige les dirigeants à repenser leurs priorités. Ignorer ces vulnérabilités pourrait entraîner des escalades de privilèges incontrôlées par les agents IA, compromettant la souveraineté des données et amplifiant les risques cybernétiques dans un paysage où les attaques ciblent déjà les identités non humaines. Stratégiquement, les recommandations de Delinea – évaluation continue des risques et accès en temps réel – offrent un cadre actionable pour concilier innovation et sécurité, évitant le 'shadow AI' et favorisant une gouvernance unifiée. Pour les entreprises françaises et européennes, soumises au RGPD et aux futures régulations IA, ce rapport constitue un guide précieux pour anticiper les normes à venir, renforçant la résilience face à une adoption massive de l'IA tout en préservant la compétitivité.
Source
AxiosAuteur
Rédaction IA-MediasRédaction spécialisée dans la veille et l’analyse de l’actualité de l’intelligence artificielle, des puces IA, des robots, des agents IA et de la recherche.