Un nouveau modèle d'IA neuro-symbolique divise par vingt la consommation énergétique de ChatGPT tout en surpassant ses performances

Publié le 2026-04-14T14:15:35.401+00:00 — D'après Futura-Sciences (2026-04-12T18:00:28+00:00)

Les faits

Des chercheurs ont mis au point un système d'intelligence artificielle neuro-symbolique qui consomme vingt fois moins d'énergie que ChatGPT, tout en obtenant de meilleurs résultats sur des tâches complexes. Baptisé Fast-weight Program-based Recursive Neural Network (FPRNN), ce modèle excelle notamment sur le puzzle de la tour de Hanoï, où il résout des configurations à 20 disques en quelques secondes, contre des heures pour les grands modèles de langage comme GPT-4. Selon l'article publié sur Futura-Sciences, cette avancée repose sur une combinaison d'apprentissage neuronal et de raisonnement symbolique, évitant ainsi les calculs énergivores des transformers traditionnels. Les tests menés par les chercheurs, dont Andrey Gromov de l'université d'Amsterdam, démontrent une efficacité remarquable : le FPRNN utilise seulement 0,007 kWh pour une résolution complète, contre 0,125 kWh pour ChatGPT. Sur d'autres benchmarks comme ARC ou GSM8K, le modèle neuro-symbolique affiche des taux de réussite supérieurs, atteignant 95 % sur la tour de Hanoï à 15 disques. Cette approche hybride intègre des programmes récursifs à poids rapides, inspirés des travaux pionniers sur les réseaux neuronaux récurrents. L'étude, parue dans les actes de la conférence NeurIPS 2024, souligne que ce système s'entraîne sur des données minimales et s'exécute sur du matériel standard, sans nécessiter de GPU haut de gamme. Les auteurs estiment que cette technologie pourrait révolutionner les applications embarquées, où la consommation énergétique est critique. Ce développement s'inscrit dans un contexte plus large d'optimisation des modèles d'IA, avec des initiatives similaires chez DeepMind et d'autres laboratoires, mais le FPRNN se distingue par son efficacité énergétique exceptionnelle.

Pourquoi c’est important

Cette avancée neuro-symbolique répond à un défi majeur de l'IA contemporaine : la consommation énergétique explosive des grands modèles de langage, qui représente déjà 2 à 3 % de la consommation électrique mondiale et pourrait tripler d'ici 2027 selon des estimations de l'Agence internationale de l'énergie. En divisant par vingt les besoins énergétiques tout en améliorant les performances sur des tâches de raisonnement, le FPRNN ouvre la voie à une IA plus durable, accessible sur des appareils de bord comme les smartphones ou les objets connectés, sans dépendre de data centers voraces en ressources. Sur le plan stratégique, cette innovation hybride pourrait relancer le débat sur les limites des architectures transformer dominantes, favorisant un retour vers des approches symboliques combinées au neuronal. Pour les entreprises françaises comme Mistral AI ou LightOn, elle incite à explorer ces pistes pour réduire les coûts d'inférence et renforcer la souveraineté technologique, dans un secteur où l'Europe peine à rivaliser avec les géants américains en termes d'échelle mais excelle en efficacité.

Source

Futura-Sciences

Auteur

Rédaction IA-Medias

Rédaction spécialisée dans la veille et l’analyse de l’actualité de l’intelligence artificielle, des puces IA, des robots, des agents IA et de la recherche.