هل يواجه فريق التوافق الفائق في OpenAI صعوبة في البقاء بعد مغادرتين بارزتين؟

إيليا سوتسكييفر، الرئيس السابق لقسم العلوم في OpenAI وأحد مؤسسيها، لم يكن المغادر الوحيد من الشركة يوم أمس. تبعه بوقت قصير يان ليك، قائد فريق "التحكم الفائق" في OpenAI، الذي أعلن استقالته على منصة X برسالة بسيطة: "استقلت."

انضم ليك إلى OpenAI في أوائل عام 2021، معبراً عن حماسه لأعمال الشركة في نمذجة المكافآت، وخاصة في مواءمة GPT-3 مع تفضيلات البشر. في ديسمبر 2022، شارك تفاؤله حول استراتيجيات المواءمة في حسابه على Substack "Aligned". قبل انضمامه إلى OpenAI، كان ليك قد قدم خبرته في مختبر ديبمايند AI التابع لجوجل.

أثارت مغادرة هذين القائدين من OpenAI مناقشات حول تداعيات ذلك على طموحات الشركة للسيطرة على أنظمة الذكاء الاصطناعي المتقدمة، بما في ذلك الهدف الشامل المتمثل في تحقيق الذكاء العام الاصطناعي (AGI)، والذي يعرف بأنه الذكاء الاصطناعي الذي يتفوق على الأداء البشري في المهام الاقتصادية القيمة.

ما هو التحكم الفائق؟

تعمل نماذج اللغة الكبيرة (LLMs)، مثل GPT-4o من OpenAI، ومنافساتها مثل Gemini من Google وLlama من Meta، بطرق معقدة. لضمان أداء هذه النماذج بشكل موثوق وعدم إنتاج استجابات ضارة أو غير منطقية، يجب على المطورين "مواءمتها" مع السلوكيات المرغوبة. يشمل ذلك تقنيات التعلم الآلي مثل التعلم التعزيزي وتحسين السياسات القريبة (PPO).

يمثل التحكم الفائق جهداً مكثفاً لضمان مواءمة نماذج الذكاء الاصطناعي المستقبلية—الذكاءات الفائقة—تجاوز ما هو متاح حالياً. أعلنت OpenAI عن إنشاء فريق التحكم الفائق في يوليو 2023، مشيرةً إلى ضرورة إدارة المخاطر المرتبطة بتطوير الذكاء الاصطناعي وحوكمته.

التحدي يكمن في كيفية ضمان التزام أنظمة الذكاء الاصطناعي الفائقة بالنوايا البشرية. قد لا تكون تقنيات المواءمة الحالية، التي تعتمد على الرقابة البشرية، فعّالة عند توسيع نطاقها لتشمل أنظمة تفوق الذكاء البشري. اعترفت OpenAI بهذه القضية والتزمت بتخصيص 20% من مواردها الحاسوبية لمبادرة التحكم الفائق، مستفيدةً من وحدات معالجة الرسوميات القيمة من Nvidia ومعدات أخرى.

ما التالي للتحكم الفائق؟

مع مغادرة سوتسكييفر وليك، تثار تساؤلات هامة حول مستقبل مبادرة التحكم الفائق. هل ستواصل OpenAI تخصيص 20% من قدرتها الحاسوبية لهذا المشروع، أم ستحول مسارها نحو اتجاه جديد؟ يلاحظ المراقبون أن سوتسكييفر كان يُعتبر "متشائماً"، خاصة فيما يتعلق بالمخاطر الوجودية الناتجة عن الذكاء الاصطناعي، على عكس الرئيس التنفيذي سام ألتمان وآخرين في OpenAI، الذين يبدو أنهم أقل تركيزًا على هذه التهديدات.

لقد تواصلنا مع OpenAI لتوضيح مستقبل فريق التحكم الفائق وسنقوم بتقديم تحديثات بمجرد حصولنا على رد.

Most people like

Find AI tools in YBX

Related Articles
Refresh Articles