Ilya Sutskever, co-fondateur d'OpenAI, lance une startup pour relever les défis de la superintelligence sûre.

Ilya Sutskever, ancien scientifique en chef d'OpenAI, a dévoilé sa nouvelle aventure après avoir quitté ses fonctions en mai. Avec son collègue d'OpenAI, Daniel Levy, et l'ex-responsable de l'IA chez Apple, Daniel Gross, il a fondé Safe Superintelligence Inc. La mission de la startup est de développer une superintelligence sûre, qu'ils considèrent comme « le problème technique le plus important de notre époque ».

Sur le site minimaliste de SSI, les fondateurs soulignent leur engagement à aborder simultanément la sécurité et les capacités. Leur objectif est d'accélérer les avancées des capacités de l'IA tout en veillant à ce que la sécurité reste une priorité.

Mais qu'est-ce que la superintelligence ? Il s'agit d'une entité théorique dotée d'une intelligence dépassant largement celle du plus intelligent des humains.

Cette initiative s'appuie sur le travail précédent de Sutskever chez OpenAI, en particulier sa participation à l'équipe de superalignment chargée de contrôler des systèmes d'IA puissants. Après le départ de Sutskever, cette équipe a été dissoute, une décision qui a suscité des critiques de la part de l'ancien responsable Jean Leike.

Sutskever a également joué un rôle clé dans le controversé évincement du PDG d'OpenAI, Sam Altman, en novembre 2023, exprimant par la suite des regrets concernant son implication.

Safe Superintelligence Inc. déclare qu'elle poursuivra sa mission avec un objectif clair : créer une IA superintelligente et sûre.

Most people like

Find AI tools in YBX