طالب باحثو OpenAI بـ "حق التحذير" بشأن مخاطر السلامة، مشددين على ضرورة اتخاذ إجراءات لمنع "انقراض البشرية".

مجموعة من 11 باحثاً، تضم موظفين حاليين وسابقين من OpenAI، بالإضافة إلى عضو من Google DeepMind وباحث سابق في Anthropic، أصدرت رسالة مفتوحة تدعو شركات الذكاء الاصطناعي إلى تبني أربعة مبادئ تهدف إلى حماية المبلغين عن المخالفات والنقاد المعنيين بقضايا سلامة الذكاء الاصطناعي.

بعنوان "الحق في التحذير"، تبرز الرسالة المخاطر الجادة المرتبطة بتقنيات الذكاء الاصطناعي، حيث تقول: "تشمل هذه المخاطر من ترسيخ الف inequalities الموجودة إلى التلاعب، ونشر المعلومات المغلوطة، وفقدان السيطرة المحتمل على أنظمة الذكاء الاصطناعي المستقلة، مما قد يؤدي إلى انقراض البشرية."

من بين المخاوف الرئيسية التي أثيرت في الرسالة عدم كفاية الرقابة، والدوافع الربحية، وقمع الأصوات المعارضة داخل المؤسسات التي تطور تقنيات الذكاء الاصطناعي المتقدمة.

لمعالجة هذه القضايا، يقترح الموقعون المبادئ الأربعة التالية لشركات الذكاء الاصطناعي:

1. عدم فرض اتفاقيات تمنع النقد أو الانتقام من الأفراد الذين يثيرون مخاوف حول المخاطر.

2. إنشاء عملية سرية وقابلة للتحقق للإبلاغ عن القضايا المتعلقة بالمخاطر إلى مجلس الإدارة، الجهات التنظيمية، والمنظمات المستقلة.

3. تعزيز ثقافة الشفافية التي تشجع الموظفين على مناقشة المخاطر المحتملة علنياً مع حماية أسرار التجارة.

4. منع الانتقام من الموظفين الذين يكشفون معلومات سرية تتعلق بالمخاطر بعد فشل وسائل الإبلاغ الأخرى.

نشرت الرسالة اليوم في صحيفة نيويورك تايمز، وقد حظيت بدعم قادة الذكاء الاصطناعي مثل يوشوا بنجيو، وجيفري هينتون، وستيوارت راسل. ومن أبرز الموقعين السابقين على الرسالة، جاكوب هيلتون، ودانييل كوكوتاجلو، وويليام سوندرز، ودانييل زايجلر، بالإضافة إلى رامانا كومار من Google DeepMind ونيل ناندا، الذي يعمل حالياً في DeepMind.

في سلسلة من المنشورات على X (تويتر سابقاً) بعد نشر المقال، أوضح كوكوتاجلو أسباب استقالته من OpenAI، مستشهداً بفقدان الثقة في التزام الشركة بتطوير ذكاء اصطناعي مسؤول. وأكد على الحاجة إلى مزيد من الشفافية والمعايير الأخلاقية في تقدم تقنيات الذكاء الاصطناعي.

وأفاد كوكوتاجلو بأنه تنازل عن حصته في الملكية ليتمكن من نقد الشركة بحرية، معبراً عن خيبة أمله في عدم إعطاء OpenAI الأولوية لبحوث السلامة مع تطور أنظمته. كما أشار إلى تقديمه اتفاقية عدم انتقاد عند مغادرته، والتي اعتبرها غير أخلاقية.

تأتي هذه الادعاءات بعد تقارير سابقة عن ممارسات OpenAI، بما في ذلك وثائق مسربة تظهر تكتيكات قسرية استخدمت ضد موظفين سابقين. ومع ذلك، ذكرت OpenAI أنها لن تفرض اتفاقيات عدم الإفصاح، التي تعتبر شائعة في صناعة التكنولوجيا.

تأتي الرسالة في فترة مضطربة لـ OpenAI، بدأت بقرار فصل الرئيس التنفيذي سام ألتمان في نوفمبر 2023 بسبب مزاعم تتعلق بقضايا في التواصل مع المجلس. سرعان ما تم إعادة ألتمان بسبب ضغوط المستثمرين، لكن بعض أعضاء المجلس أعربوا عن مخاوف مستمرة حول المساءلة والشفافية، وهي قضايا كررها شخصيات عامة، بما في ذلك سكارليت جوهانسون، التي انتقدت الشركة لاستخدام صوتها دون إذن.

على الرغم من هذه التحديات، تسعى الشركة إلى معالجة مخاوف السلامة من خلال تشكيل لجنة جديدة للسلامة والأمن، تم الإعلان عنها بالتزامن مع تدريب نموذج الذكاء الاصطناعي الأحدث لها.

نص الرسالة الكاملة "الحق في التحذير":

تحذير حول الذكاء الاصطناعي المتقدم

نحن موظفون حاليون وسابقون في شركات الذكاء الاصطناعي المتطورة، ونؤمن بإمكانات تقنيات الذكاء الاصطناعي في تقديم فوائد غير مسبوقة للإنسانية.

ومع ذلك، نحن ندرك أيضًا المخاطر الجادة التي تمثلها هذه التقنيات، والتي تشمل تعزيز الف inequalities، وتسهيل التلاعب ونشر المعلومات المغلوطة، وقد تؤدي إلى فقدان السيطرة على أنظمة الذكاء الاصطناعي المستقلة، مع عواقب كارثية.

تعترف شركات الذكاء الاصطناعي بهذه المخاطر، وكذلك الحكومات والخبراء على مستوى العالم. نحن نأمل أن يمكن التخفيف منها مع توجيه كافٍ من المجتمع العلمي وصانعي السياسات والعامة. ومع ذلك، فإن الدوافع المالية الكبيرة تعيق غالباً الرقابة الفعالة.

تمتلك شركات الذكاء الاصطناعي معلومات حيوية غير علنية حول قدرات أنظمتها ومخاطرها، لكن لديها التزامات ضعيفة بالإفصاح عن هذه المعلومات للحكومات أو المجتمع المدني. لذلك، فإن الموظفين الحاليين والسابقين هم عناصر حيوية لضمان المساءلة، لكن الاتفاقيات السرية غالباً ما تكتم أصواتنا. تحمي الضمانات التقليدية للمبلغين عن المخالفات بشكل غير كافٍ، حيث تظل العديد من المخاطر غير منظمة.

ندعو شركات الذكاء الاصطناعي المتقدمة إلى الالتزام بالمبادئ التالية:

1. عدم فرض أي اتفاقيات تمنع النقد المتعلق بالمخاطر أو الانتقام من الموظفين بسبب تلك التعليقات.

2. إنشاء عملية سرية للإبلاغ عن المخاطر إلى المجلس، والجهات التنظيمية، والمنظمات المستقلة المؤهلة.

3. دعم ثقافة النقد المفتوح، مما يسمح للموظفين بطرح المخاوف علنًا مع حماية أسرار التجارة.

4. حماية أولئك الذين يكشفون عن معلومات تتعلق بالمخاطر إذا فشلت وسائل الإبلاغ الداخلية.

الموقعون (ترتيب أبجدي):

- جاكوب هيلتون، سابق في OpenAI

- دانييل كوكوتاجلو، سابق في OpenAI

- رامانا كومار، سابق في Google DeepMind

- نيل ناندا، حالي في Google DeepMind، سابق في Anthropic

- ويليام سوندرز، سابق في OpenAI

- كارول وينرايت، سابق في OpenAI

- دانييل زايجلر، سابق في OpenAI

- مجهول، حالي في OpenAI (أربعة أفراد)

- مجهول، سابق في OpenAI (شخصان)

موصى به من قبل (ترتيب أبجدي):

- يوشوا بنجيو

- جيفري هينتون

- ستيوارت راسل

4 يونيو 2024

Most people like

Find AI tools in YBX

Related Articles
Refresh Articles