Exploration des six niveaux hiérarchiques de l'intelligence générale artificielle (IGA) de Google DeepMind

L'équipe DeepMind de Google affine activement la discussion sur l'Intelligence Artificielle Générale (AGI) en établissant une définition claire du terme. Bien que de nombreux passionnés d'IA considèrent l'AGI comme l'objectif ultime dans la quête de superintelligence artificielle, les spécificités de ce que l'AGI implique sont rarement articulées. Le terme est souvent utilisé de manière vague pour décrire des logiciels qui, une fois un certain seuil franchi, atteignent des capacités semblables à celles de l'intelligence humaine.

Dans un préprint publié sur arXiv, les chercheurs de DeepMind soulignent l'importance d'une définition précise de l'AGI, mettant en avant la nécessité de quantifier des attributs tels que la performance, la généralité et l'autonomie des systèmes d'IA. En proposant un cadre standardisé pour évaluer l'AGI, ils visent à créer des repères permettant d'assister l'évaluation des capacités de divers modèles d'IA.

Définition de l'AGI

À l'heure actuelle, il n'existe pas de définition d'AGI acceptée universellement. La charte d'OpenAI caractérise l'AGI comme "des systèmes hautement autonomes qui surpassent les humains dans la plupart des travaux économiquement précieux." Les experts s'accordent à dire que, contrairement à l'IA étroite—qui excelle dans des tâches spécifiques comme la traduction ou le jeu—l'AGI devrait démontrer la flexibilité et l'adaptabilité nécessaires pour gérer n'importe quelle tâche intellectuelle qu'un humain peut accomplir. Cela signifie maîtriser des domaines spécifiques tout en ayant la capacité de transférer des connaissances à travers différents champs, d'exhiber de la créativité et de résoudre des problèmes nouveaux.

Pour clarifier le concept d'AGI, les chercheurs de Google se sont inspirés d'un cadre à six niveaux utilisé pour évaluer les progrès dans la conduite autonome. Ils ont analysé diverses définitions de l'AGI et identifié plusieurs principes clés qui devraient sous-tendre toute définition.

Premièrement, l'équipe de Google soutient que les définitions de l'AGI devraient se concentrer sur les capacités plutôt que sur les processus par lesquels l'IA les atteint. Cette perspective souligne que l'IA n'a pas besoin de reproduire les schémas de pensée ou la conscience humaine pour être qualifiée d'AGI.

Deuxièmement, ils affirment que pour atteindre l'AGI, il faut non seulement une capacité générale, mais aussi des benchmarks de performance spécifiques pour diverses tâches. Cependant, ils précisent que ces benchmarks n'ont pas besoin d'être validés dans des environnements réels ; il est suffisant qu'un modèle montre un potentiel pour dépasser les capacités humaines dans un domaine donné.

Certains experts suggèrent que l'AGI devra peut-être être intégrée dans des robots pour interagir avec le monde physique. Cependant, les chercheurs de DeepMind soutiennent que cela n'est pas requis. Ils proposent que l'AGI se concentre principalement sur des tâches cognitives intelligentes, telles que l'apprentissage autodirigé. De plus, ils insistent sur l'importance de suivre l'évolution de l'AGI au fil du temps plutôt que de se focaliser sur un objectif final unique.

Niveaux de l'AGI

Pour classer l'AGI, DeepMind a développé un système de classification appelé "Niveaux de l'AGI", commençant par "émergente" (comparée à un humain non qualifié) et progressant à travers des catégories comme "compétent", "expert", "virtuose", pour finir avec "surhumain" (surpassant toutes les capacités humaines). Ce cadre de classement s'applique aux systèmes d'IA simples comme complexes.

Les chercheurs soulignent que les technologies d'IA existantes comme AlphaFold de DeepMind affichent déjà des performances surhumaines dans des tâches spécifiques. Ils suggèrent également que des chatbots avancés tels que GPT-4 et Bard de Google pourraient représenter des étapes précoces de l'AGI.

L'avenir de l'AGI

Certains membres de la communauté de l'IA sont optimistes quant à l'arrivée imminente de l'AGI. Jensen Huang, PDG de Nvidia, a récemment exprimé la conviction que l'AGI pourrait être réalisée dans la prochaine décennie, voire plus tôt. Nicole Valentine, spécialiste en IA et fintech, a proposé que l'AGI pourrait déjà être présente sans avoir encore atteint son plein potentiel. Elle affirme qu'à mesure que les systèmes d'IA évoluent et apprennent de leur environnement, ils présenteront une plus grande sophistication au fil du temps. "Le véritable défi est de savoir comment nous, en tant qu'humains, naviguons les risques et les opportunités présentés par un logiciel capable d'apprendre, de communiquer en langage naturel et de raisonner", a-t-elle déclaré.

Plus tôt dans l'année, un groupe d'experts en IA a attiré l'attention avec leur article intitulé "Lueurs de l'Intelligence Artificielle Générale : Expériences Préliminaires avec GPT-4", dans lequel ils ont souligné la capacité de GPT-4 à réaliser des tâches complexes dans divers domaines, suggérant qu'il pourrait être considéré comme une instance initiale—bien que imparfaite—d'AGI.

Inversement, certains experts estiment que nous sommes encore loin d'atteindre une intelligence de niveau humain dans les machines. Yann LeCun, scientifique en chef de l'IA chez Meta, argue contre l'existence de l'AGI, suggérant que le terme devrait être remplacé par "IA de niveau humain." Cependant, il reconnaît que les machines finiront par surpasser l'intelligence humaine dans tous les domaines, se conforme ainsi à la définition générale de l'AGI.

Les partisans de l'AGI affirment qu'elle a le potentiel de révolutionner divers secteurs, de la santé à l'exploration spatiale. Cependant, des experts comme Assaf Melochna, président de l'entreprise d'IA Aquant, notent que bien que l'AGI puisse conduire à des avancées extraordinaires, elle pose également des risques significatifs similaires à ceux observés dans la manipulation des médias sociaux lors d'événements sociétaux et politiques.

Most people like

Find AI tools in YBX

Related Articles
Refresh Articles