Google finalise un accord d'IA avec le Pentagone malgré les critiques internes
Publié le 2026-04-30T08:15:41.528+00:00 — D'après heise online (2026-04-28T12:07:00+00:00)
Résumé
Google a modifié son contrat avec le Pentagone pour autoriser le déploiement de Gemini sur les réseaux classifiés à des fins gouvernementales « légales ». L'accord, plus permissif que celui d'OpenAI, permet au gouvernement de modifier les paramètres de sécurité de l'IA, suscitant des préoccupations éthiques internes.
Les faits
Google a amendé son contrat existant avec le département américain de la Défense pour étendre la disponibilité de Gemini aux réseaux classifiés, accordant au Pentagone la permission de déployer les modèles pour « toute fin gouvernementale légale ». Cet accord intervient alors que le géant technologique s'est retiré en février d'un défi de prix de 100 millions de dollars visant à développer une technologie de essaim de drones autonomes contrôlés par la voix, suite à un examen interne des questions éthiques. Le contrat signé cette semaine se distingue par sa flexibilité comparée aux accords conclus avec des concurrents comme OpenAI. Alors qu'OpenAI maintient une « discrétion totale » sur ses protocoles de sécurité, Google a consenti à modifier ses configurations de sécurité à la demande du gouvernement. L'accord inclut un langage stipulant que le système d'IA ne devrait pas être utilisé pour la surveillance de masse domestique ou les armes autonomes « sans contrôle et surveillance humains appropriés », mais précise également que l'accord ne donne pas à Google « aucun droit de… opposer un veto aux décisions opérationnelles gouvernementales légales ». Cette décision reflète la stratégie du Pentagone d'éviter la dépendance envers un seul fournisseur, selon Cameron Stanley, chef de l'IA au Pentagone. Google rejoint ainsi OpenAI et xAI d'Elon Musk en accordant au Pentagone un accès classifié étendu à l'IA. Anthropic demeure la seule grande entreprise de recherche en IA à ne pas avoir conclu de contrat avec le Pentagone.
Pourquoi c’est important
Cet accord illustre la tension croissante entre les ambitions militaires américaines en matière d'IA et les préoccupations éthiques des entreprises technologiques. Bien que Google et OpenAI affirment partager des principes similaires interdisant l'utilisation de l'IA pour les armes autonomes ou la surveillance massive, l'absence de garde-fous législatifs laisse ces contrats vulnérables aux contournements. La clause permettant au gouvernement de modifier les paramètres de sécurité à sa discrétion soulève des questions fondamentales sur le contrôle réel exercé par les entreprises sur leurs systèmes d'IA une fois déployés dans des contextes militaires. Le contexte politique amplifie l'enjeu : le Congrès américain reste loin d'établir des régulations pour les applications militaires de l'IA, tandis que les tensions géopolitiques s'intensifient. L'accord de Google, plus permissif que celui de ses concurrents, crée un précédent inquiétant où les restrictions éthiques reposent sur un « langage aspirationnel sans contraintes légales », selon les critiques. Cette situation révèle un vide réglementaire que les entreprises comblent par des engagements contractuels dont la solidité reste discutable.
Questions fréquentes
Quelles sont les différences entre l'accord de Google et celui d'OpenAI avec le Pentagone ?
Google a accepté que le gouvernement modifie ses paramètres de sécurité à sa demande, tandis qu'OpenAI conserve une « discrétion totale » sur ses protocoles. L'accord de Google est donc plus permissif et offre moins de contrôle à l'entreprise sur l'utilisation de ses modèles.
Pourquoi Google s'est-il retiré du programme de drone autonome ?
Google a abandonné le défi de 100 millions de dollars en février suite à un examen interne des questions éthiques et à des préoccupations des employés concernant le développement de technologie de drone autonome.
Quelles restrictions éthiques l'accord impose-t-il ?
L'accord stipule que l'IA ne devrait pas être utilisée pour la surveillance de masse domestique ou les armes autonomes « sans contrôle et surveillance humains appropriés », mais ces restrictions manquent de mécanismes d'application légale contraignants.
Quel est le rôle du Congrès dans cette situation ?
Le Congrès américain n'a pas encore établi de régulations pour les applications militaires de l'IA, laissant les entreprises et le Pentagone négocier des contrats sans cadre législatif clair.
Anthropic a-t-il signé un accord similaire avec le Pentagone ?
Non, Anthropic demeure la seule grande entreprise de recherche en IA à ne pas avoir conclu de contrat avec le Pentagone, se distinguant par une approche plus prudente.
Source
heise onlineAuteur
Rédaction IA-MediasRédaction spécialisée dans la veille et l'analyse de l'actualité de l'intelligence artificielle, des puces IA, des robots, des agents IA et de la recherche.