إيليا سوتسكيفر، كبير العلماء السابق في OpenAI، كشف عن مشروعه الجديد بعد استقالته في مايو. وقد أسس، مع زميله في OpenAI دانييل ليفي ورئيس الذكاء الاصطناعي السابق في آبل دانييل غروس، شركة Safe Superintelligence Inc. يهدف هذا المشروع الناشئ إلى تطوير ذكاء خارق آمن، الذي يعتبرونه "أهم مشكلة تقنية في عصرنا".
على الموقع البسيط لشركة SSI، يبرز المؤسسون التزامهم بالتعامل مع السلامة والقدرات معًا. يخططون لتحقيق تقدم سريع في قدرات الذكاء الاصطناعي مع ضمان بقاء السلامة في مقدمة أولوياتهم.
لكن ما هو الذكاء الخارق؟ يشير إلى كيان نظري يمتلك ذكاء يفوق بكثير ذكاء أذكى إنسان.
تستند هذه المبادرة إلى الأعمال السابقة لسوتسكيفر في OpenAI، خاصة مشاركته في فريق التوافق الخارق الذي كان يركز على التحكم في أنظمة الذكاء الاصطناعي القوية. بعد مغادرة سوتسكيفر، تم حل ذلك الفريق، وهو قرار تعرض لانتقادات من الرئيس السابق جان ليك.
كما كان سوتسكيفر شخصية رئيسية في الإطاحة المثيرة للجدل بالرئيس التنفيذي لـ OpenAI سام التمان في نوفمبر 2023، حيث أعرب لاحقًا عن ندمه على مشاركته في ذلك.
تؤكد شركة Safe Superintelligence Inc. أنها ستتابع مهمتها بتركيز واضح وهدف واحد: إنشاء ذكاء اصطناعي خارق وآمن.