أوبن AI تكشف عن "إطار الجاهزية" لمراقبة وتخفيف مخاطر الذكاء الاصطناعي

أعلنت OpenAI، المختبر المسؤول عن تطوير ChatGPT، عن طرح "إطار الاستعداد"، وهو مجموعة شاملة من العمليات والأدوات المصممة لمراقبة وتقليل المخاطر المرتبطة بأنظمة الذكاء الاصطناعي القوية المتزايدة. يأتي هذا الإعلان في أعقاب الاضطرابات الأخيرة في OpenAI، وخاصة فيما يتعلق بإقالة المدير التنفيذي سام ألتمان ثم إعادة تعيينه، مما أثار قلقاً بشأن حوكمة المختبر ومساءلته، خاصة في ظل دوره في تطوير بعض من أكثر تقنيات الذكاء الاصطناعي تقدماً على مستوى العالم.

العناصر الأساسية لإطار الاستعداد

وفقًا لتدوينة OpenAI، يهدف إطار الاستعداد إلى معالجة هذه المخاوف وتأكيد التزام المختبر بتطوير ذكاء اصطناعي أخلاقي. يحدد الإطار طرقًا لمتابعة وتقييم وتوقع وحماية أنفسنا من المخاطر الكارثية التي تمثلها النماذج المتقدمة، والتي يمكن استغلالها في الهجمات الإلكترونية أو التلاعب الجماعي أو الأسلحة الذاتية التشغيل.

الأمان المعتمد على البيانات

يشمل جانبًا أساسيًا من الإطار تنفيذ "بطاقات تقييم المخاطر" لنماذج الذكاء الاصطناعي، حيث يتم تقييم مؤشرات متعددة للضرر المحتمل، بما في ذلك القدرات ونقاط الضعف والآثار. تُحدث هذه البطاقات بانتظام وتُ triggered لمراجعة وتدخلات حال تحقق عتبات المخاطر.

إطار ديناميكي

توصف OpenAI هذا الإطار بأنه ديناميكي ومتطور، ملتزمةً بتنقيحه وتعديله بناءً على بيانات جديدة، وتعليقات الجهات المعنية، والبحث. يعتزم المختبر مشاركة نتائجه وأفضل الممارسات مع المجتمع الأوسع للذكاء الاصطناعي.

تحليل مقارن مع Anthropic

يأتي هذا الإعلان بالتزامن مع التطورات الأخيرة من Anthropic، المختبر المنافس الذي أسسه باحثون سابقون في OpenAI، والذي قدم سياسة "التوسع المسؤول". تحدد هذه السياسة مستويات أمان الذكاء الاصطناعي بالتفصيل والبروتوكولات المقابلة لتطوير نماذج الذكاء الاصطناعي.

تختلف الإطارات بينهما بشكل كبير في الهيكل والمنهجية. بينما تتسم سياسة Anthropic بالصياغة الرسمية والإلزامية، مع روابط مباشرة لقدرات النموذج، يقدم إطار OpenAI نهجًا أكثر مرونة وقابلية للتكيف، حيث يُنشئ عتبات مخاطر عامة تُ activated المراجعات بدلاً من تنظيمات صارمة.

يشير الخبراء إلى أن كلا الإطارين يقدم مزايا وعيوب. قد تمتلك Anthropic ميزة في تحفيز الامتثال لمعايير الأمان، حيث تدمج سياستها تدابير الأمان في عملية التطوير. في المقابل، يكون إطار OpenAI أكثر discretionary، مما يسمح بتقدير بشري أكبر، مما قد يؤدي إلى تباين.

لقد اقترح مراقبون أن OpenAI قد تكون في سباق مع الزمن لتفعيل بروتوكولات الأمان عقب ردود الفعل الناتجة عن الإطلاق السريع لنماذج مثل GPT-4، النموذج اللغوي المتقدم المعروف بقدرته على توليد نصوص واقعية ومقنعة. قد يوفر النهج الاستباقي لـ Anthropic في الأمان لها ميزة تنافسية.

في النهاية، تشير كلا الإطارين إلى تقدم كبير في مجال أمان الذكاء الاصطناعي، الذي غالبًا ما يغيب عن الأنظار في ظل السعي نحو قدرات الذكاء الاصطناعي المتقدمة. مع تقدم وتزايد تقنيات الذكاء الاصطناعي، فإن التعاون والتنسيق حول تدابير الأمان بين المختبرات الرائدة أمر بالغ الأهمية لضمان الاستخدام الأخلاقي والمفيد للذكاء الاصطناعي للبشرية.

Most people like

Find AI tools in YBX