Trois jours après le licenciement inattendu de Sam Altman en tant que PDG d'OpenAI, la communauté de l'IA se retrouvait plongée dans la confusion et l'incertitude. Dans ce tumulte, le magnat de la technologie Elon Musk a posé une question cruciale au scientifique en chef d'OpenAI, Ilya Sutskever, sur X (anciennement Twitter) : « Pourquoi avez-vous pris une décision si radicale ? Si OpenAI engage des actions potentiellement dangereuses pour l'humanité, le monde doit le savoir. »
Sutskever, qui a joué un rôle important dans le départ d'Altman, a exprimé des inquiétudes quant à la commercialisation rapide de la technologie d'OpenAI. Quelques mois auparavant, l'organisation avait réalisé une avancée significative qui la plaçait dans une position favorable pour développer des modèles d'IA plus puissants, selon The Information. Cette avancée a suscité des alarmes parmi Sutskever et le conseil d'administration de l'organisation à but non lucratif, qui craignaient que les mesures de sécurité en place ne soient pas suffisantes pour atténuer les implications de ces modèles avancés. À leurs yeux, la seule solution viable était de se séparer d'Altman, perçu comme le moteur de cette commercialisation accélérée.
Cette avancée, appelée Q* (ou Q-star), représente une étape technique cruciale dans le développement de l'IA. Elle permet aux modèles de résoudre des problèmes mathématiques fondamentaux qu'ils n'avaient jamais rencontrés. Alors que les systèmes d'IA générative actuels produisent des résultats variables en fonction des entrées, les mathématiques ne fonctionnent qu'avec des réponses uniques et correctes. Cette avancée indique que l'IA pourrait approcher des capacités de raisonnement comparables à celles de l'intelligence humaine, comme l'a noté Reuters.
Les implications de telles avancées rapprochent l'IA de l'atteinte de l'intelligence générale artificielle (AGI), un état où les machines peuvent raisonner de manière similaire aux humains. Cependant, un fossé s'est creusé dans le paysage de l'IA. Une faction importante, défendue par celui que l'on appelle le parrain de l'IA, met en garde que l'AGI représente des risques existentiels pour l'humanité tant qu'elle n'est pas accompagnée de régulations robustes.
En revanche, Yann LeCun, scientifique en chef de l'IA chez Meta, s'oppose fermement à cette idée. Il a publiquement qualifié les préoccupations concernant Q* de "complet non-sens" et a affirmé que de nombreux laboratoires de premier plan, tels que FAIR, DeepMind et OpenAI, explorent des voies similaires et ont déjà partagé leurs découvertes.
LeCun se pose en voix majeure contre la croyance que l'AGI pourrait entraîner la chute de l'humanité. Il soutient que posséder une superintelligence n'impose pas nécessairement à une entité de dominer celles de moindre intelligence. Établissant des parallèles avec les structures d'entreprise, il suggère que les leaders gèrent souvent des équipes intellectuellement plus capables qu'eux-mêmes, ce qui contredit l'idée que la supériorité intellectuelle équivaut à un désir de conquête.
Il insiste également sur le fait que les machines n'ont pas d'instincts sociaux et n'ont pas l'ambition de dominer l'humanité. « L'intelligence n'a rien à voir avec le désir de dominer », a argumenté LeCun dans un récent discours en ligne. En réalité, il envisage l'IA superintelligente comme des partenaires bénéfiques qui améliorent les capacités humaines.
Pour résumer sa perspective sur l'AGI, LeCun a proposé les points suivants :
- L'IA surhumaine émergera sans aucun doute à l'avenir.
- Ces systèmes d'IA seront sous contrôle humain.
- Ils ne représenteront pas une menace pour l'humanité et ne chercheront pas à nous nuire.
- Ils faciliteront nos interactions avec le monde numérique.
- Par conséquent, ils doivent fonctionner comme des plateformes ouvertes, permettant des contributions diversifiées pour leur formation et leur amélioration.
Alors que les discussions sur les implications des avancées de l'IA continuent, le débat entre risques potentiels et opportunités optimistes reste d'actualité. L'intersection future de la technologie et de l'intelligence humaine déterminera finalement la trajectoire du rôle de l'IA dans la société.