في أعقاب الاضطرابات الأخيرة في مجالس الإدارة، تعهدت OpenAI بتعزيز الإشراف من خلال إنشاء فريق متخصص للجاهزية يركز على اختبار أمان نماذج الذكاء الاصطناعي بشكل صارم. تأتي هذه المبادرة الاستراتيجية بعد القرار المثير للجدل بفصل الرئيس التنفيذي سام التمان، الذي تم اتخاذه استجابة لمخاوف كبيرة من العالم الرئيسي إيليا سوتسكيور حول التسويق السريع للتكنولوجيا دون اتخاذ احتياطات كافية ضد المخاطر المحتملة. تم إعادة التمان إلى منصبه بعد خمسة أيام بسبب الاضطراب الواسع النطاق بين الموظفين، مما يبرز أهمية دعم الموظفين في تشكيل القرارات المؤسسية.
لتعزيز بروتوكولات الأمان، سيقوم فريق الجاهزية الجديد في OpenAI بإجراء تقييمات شاملة واختبارات ضغط على نماذجها الأساسية. ستتم مشاركة التقارير الناتجة عن هذا الفريق مع قيادة OpenAI ومجلس الإدارة الجديد. بينما ستقرر القيادة ما إذا كانت ستتابع النماذج بناءً على نتائج الاختبارات، يمتلك المجلس الآن السلطة لإلغاء تلك القرارات، مما يبرز تحولاً نحو مزيد من التدقيق في عملية اتخاذ القرار.
في منشور مدونة حديث، أوضحت OpenAI: "هذا العمل الفني حاسم لإبلاغ قرارات OpenAI لتطوير ونشر نماذج الأمان." تتبع إعادة هيكلة المجلس تغييرات كبيرة تم إجراؤها خلال أزمة القيادة، مع خطط لزيادة عدد الأعضاء من ثلاثة إلى تسعة، بما في ذلك دور المراقب غير المصوت لمايكروسوفت. يتكون المجلس الحالي من شخصيات محترمة مثل وزير الخزانة الأمريكي السابق لاري سامرز، وبريت تايلور، الرئيس التنفيذي السابق لشركة Salesforce، وآدم دانجيلو، المؤسس المشارك لQuora، الذي يعتبر العضو المتبقي الوحيد من المجلس السابق.
مهمة OpenAI واضحة: المسؤولية الائتمانية الأساسية لها تقع على الإنسانية، وهي ملتزمة تمامًا بضمان سلامة الذكاء الاصطناعي العام (AGI). يسعى الإطار الجديد للجاهزية إلى استخراج رؤى قيمة من نشر نماذجه، مما يمكنه من التخفيف من المخاطر الناشئة بشكل فعال. تؤكد OpenAI أن تسارع الابتكار يتطلب أيضًا تسريع جهود الأمان، مما يستلزم التعلم المستمر من خلال النشر التكراري.
بموجب هذا الإطار، سيقوم الفريق الجديد بتنظيم تدريبات أمان منتظمة لضمان ردود فعل سريعة على أي مشكلات قد تنشأ. كما تخطط OpenAI للاستعانة بأطراف مستقلة مؤهلة لإجراء تدقيقات شاملة، مما يعزز المساءلة والشفافية.
ستشهد جميع نماذج OpenAI الآن تحديثات وتقييمات مستمرة في كل مرة تتضاعف فيها القوة الحاسوبية الفعالة خلال مراحل التدريب. ستشمل عملية الاختبار مجموعة من المجالات الرئيسية، بما في ذلك نقاط الضعف في الأمن السيبراني، وإمكانية إساءة الاستخدام، والقدرة على اتخاذ قرارات ذاتية، خاصة فيما يتعلق بالنتائج الضارة المرتبطة بالتهديدات البيولوجية أو الكيميائية أو النووية.
سيتم تصنيف النماذج في واحدة من أربع مستويات خطر أمان، محاكيةً نظام تصنيف قانون الذكاء الاصطناعي في الاتحاد الأوروبي. تتراوح هذه الفئات من مستوى خطر منخفض، متوسط، مرتفع، إلى مستوى خطر حرج. سيتم اعتبار النماذج المصنفة على أنها ذات مخاطر متوسطة أو أقل مناسبة للنشر، بينما ستحتاج النماذج ذات المخاطر العالية أو الحرجة إلى مزيد من التطوير والتدابير الاحترازية.
حاليًا، إن إطار الجاهزية في OpenAI في مرحلة التجريب، مع خطط لتعديلاته المستمرة مع ظهور رؤى جديدة. تعكس هذه المقاربة الاستباقية التزام الشركة ليس فقط بتقدم تكنولوجيا الذكاء الاصطناعي، ولكن أيضًا بالأمان والاعتبارات الأخلاقية التي ترافق هذه الابتكارات.