معارضة OpenAI لقرار السلامة الخاص بالذكاء الاصطناعي في كاليفورنيا (مشروع القانون SB 1047)
أعربت OpenAI، المنظمة الرائدة عالميًا في أبحاث الذكاء الاصطناعي، عن معارضتها الشديدة لتنظيم السلامة الجديد للذكاء الاصطناعي في كاليفورنيا، مشروع القانون SB 1047. تم تمرير هذا المشروع بدون معارضة من قبل مجلس الشيوخ في الولاية في مايو من هذا العام، ويهدف إلى فرض تدابير سلامة أكثر صرامة على تقنيات الذكاء الاصطناعي. يتطلب القانون من الشركات اتخاذ خطوات لمنع أنظمتها من التسبب في "أضرار جسيمة"، بما في ذلك تطوير الأسلحة البيولوجية التي قد تؤدي إلى ضحايا جماعيين أو خسائر اقتصادية تتجاوز 500 مليون دولار.
في رسالة موجهة إلى السيناتور كاليفورنيا سكوت وينر، أكدت OpenAI أن تنفيذ هذا المشروع قد يعيق الابتكار في صناعة الذكاء الاصطناعي. وأكد جيسون ديل ري، كبير مسؤولي الاستراتيجية في OpenAI، أن ريادة كاليفورنيا في مجال الذكاء الاصطناعي على الصعيد العالمي أمر حيوي لدفع النمو الاقتصادي، محذرًا من أن مشروع القانون SB 1047 قد يهدد هذا الزخم، ويبطئ التقدم التكنولوجي، ويؤدي إلى هجرة الأدمغة.
يتطلب مشروع القانون من شركات الذكاء الاصطناعي التأكد من أن أنظمتها قابلة للإيقاف، واتخاذ احتياطات معقولة ضد النتائج الكارثية، وتقديم بيانات امتثال إلى النائب العام في كاليفورنيا. ويمكن أن تواجه الشركات التي تفشل في تلبية هذه المتطلبات إجراءات قانونية وغرامات مدنية. ومع ذلك، يعتقد العديد من شركات التكنولوجيا، والشركات الناشئة، ورجال الأعمال المغامرين أن هذه التدابير تفرض قيودًا مفرطة على التقنيات الناشئة في الذكاء الاصطناعي، مما قد يعيق الابتكار.
وسط هذه المناقشات، تشير التقارير إلى أن OpenAI قد علقت خططها للتوسع في سان فرانسيسكو بسبب عدم اليقين المحيط بالبيئة التنظيمية في كاليفورنيا. وفي رد فعل على ذلك، أشار السيناتور وينر إلى أن المخاوف بشأن فقدان المواهب "لا أساس لها من الصحة"، حيث إن القوانين المقترحة ستطبق بشكل موحد على جميع الشركات التي تعمل في كاليفورنيا.
تسلط هذه الجدل الضوء على التوتر المستمر بين التطور السريع لصناعة الذكاء الاصطناعي وتأخر الإطار التنظيمي، مما يثير مناقشات واسعة النطاق داخل القطاع حول كيفية تحقيق التوازن بين تعزيز الابتكار وضمان السلامة.