أعلنت OpenAI عن بدء تدريب نموذجها الجديد "النموذج الحدودي" وتأسيس لجنة جديدة للسلامة والأمن، التي يرأسها عضو مجلس الإدارة بريت تايلور، إلى جانب الأعضاء البارزين الآخرين: آدام دي أنجلو، نيكول سيليغمان، وسام ألتمان، الرئيس التنفيذي الحالي لـ OpenAI.
كما جاء في منشور مدونة حديث: "بدأت OpenAI مؤخرًا تدريب نموذجها الحدودي التالي، بهدف تعزيز قدراتنا في مسعى نحو الذكاء الاصطناعي العام (AGI). بينما نفخر بتقديم نماذج تتصدر الصناعة من حيث الأداء والسلامة، فإننا نشجع على النقاش المفتوح في هذه المرحلة الحرجة".
بدء العد التنازلي لمدة 90 يومًا
حددت OpenAI المسؤوليات الفورية للجنة: "ستكون المهمة الأولى للجنة السلامة والأمن هي تقييم وتحسين عمليات OpenAI وإجراءات الحماية خلال الـ 90 يومًا القادمة. في نهاية هذه الفترة، ستقدم اللجنة توصياتها إلى مجلس الإدارة بالكامل. بعد ذلك، ستقوم OpenAI بالإعلان علنًا عن التوصيات المعتمدة بما يتماشى مع بروتوكولات السلامة والأمن".
يشير هذا إلى أن النموذج الجديد—الذي قد يُسمى GPT-5—لن يتم إطلاقه لمدة لا تقل عن 90 يومًا، مما يتيح للجنة وقتًا كافيًا لتقييم العمليات والإجراءات الحالية. وبالتالي، من المتوقع أن يتلقى المجلس هذه التوصيات بحلول 26 أغسطس 2024.
لماذا 90 يومًا؟
على الرغم من أن OpenAI لم تحدد السبب وراء هذا الجدول الزمني، فإن فترة 90 يومًا تعد ممارسة تجارية تقليدية للتقييم وتقديم الملاحظات، حيث توفر إطارًا زمنيًا متوازنًا ليس قصيرًا جدًا ولا طويلاً للغاية.
القلق بشأن استقلالية اللجنة
أثار تشكيل هذه اللجنة الجديدة انتقادات، حيث يتكون أعضاؤها أساسًا من التنفيذيين في OpenAI، مما يثير المخاوف بشأن استقلالية تقييمات السلامة.
تاريخيًا، كانت تركيبة مجلس إدارة OpenAI مثار جدل. في خطوة مفاجئة في 17 نوفمبر 2023، أقالت الإدارة السابقة ألتمان، مدعيةً أنه "لم يكن صريحًا بشكل ثابت". وقد أدى هذا إلى رد فعل كبير من الموظفين وانتقادات من مستثمرين بارزين، بما في ذلك Microsoft، التي أعادت ألتمان بعد أربعة أيام. تعرضت الإدارة السابقة للانتقاد بسبب تركيبتها الذكورية بالكامل وتم إعادة هيكلتها لاحقًا.
في 8 مارس من هذا العام، تم إضافة أعضاء جدد إلى المجلس، بما في ذلك سو ديسموند-هيلمان وفيدجي سيمو، في إطار جهود لتنويع قيادته.
التحديات والفرص لـ OpenAI
أطلقت OpenAI مؤخرًا نموذجها الجديد للذكاء الاصطناعي GPT-4o، لكنها واجهت انتقادات بعد هذا الإصدار. حيث أدانت الممثلة سكارليت جوهانسون الشركة علنًا بادعاء استخدام صوت ذكاء اصطناعي يشبه صوتها، مرتبط بدورها في فيلم "Her". وأوضحت OpenAI أن الصوت المعني تم تكليفه بشكل مستقل ولم يكن مقصودًا مقلّدًا لجوهانسون.
بالإضافة إلى ذلك، أثار استقالة كبير العلماء إيليا سوتسكي وتشغيل الفريق المشترك للمواءمة التحذيرات، حيث أشار الأخير إلى اتجاه مقلق نحو prioritizing “منتجات لامعة” على السلامة. تم تفكيك الفريق المشترك للمواءمة في نهاية المطاف.
على الرغم من هذه التحديات، نجحت OpenAI في تشكيل شراكات جديدة في الإعلام السائد لبيانات تدريبها وحققت اهتمامًا بنموذجها لتوليد الفيديو Sora، مما جذب انتباه صناعة الترفيه في سعيها للاستفادة من الذكاء الاصطناعي لتحقيق كفاءة أكبر في الإنتاج.
بينما تسعى OpenAI للخروج من هذه الظروف العصيبة، ستكون فعالية لجنة السلامة والأمن الجديدة حاسمة في معالجة مخاوف أصحاب المصلحة، ولا سيما بين الجهات التنظيمية والشركاء التجاريين المحتملين، قبيل إطلاق نموذجها المقبل.