قرار حاكم كاليفورنيا بشأن الفيتو لقانون الذكاء الاصطناعي: فرصة لنمو المطورين والموديلات الصغيرة

قام حاكم كاليفورنيا غافن نيوسوم مؤخراً باستخدام حق النقض ضد مشروع القانون SB 1047، الذي اعتقد الكثيرون أنه قد يؤثر بشكل كبير على تطوير الذكاء الاصطناعي في الولاية وعلى مستوى البلاد. هذا الفيتو، الذي أُعلن عنه يوم الأحد، قد يتيح لشركات الذكاء الاصطناعي إظهار التزامها بحماية المستخدمين من المخاطر المرتبطة بالذكاء الاصطناعي.

كان مشروع SB 1047 يهدف إلى إلزام شركات الذكاء الاصطناعي بتطبيق "زر إيقاف الطوارئ" في نماذجها، وتطوير بروتوكولات أمان رسمية، والتعاون مع جهة تدقيق مستقلة قبل بدء تدريب النماذج. كما كان من المفترض أن يمنح مشروع القانون المدعي العام في كاليفورنيا حق الوصول إلى تقارير التدقيق والسلطة لمقاضاة مطوري الذكاء الاصطناعي.

عبر بعض قدامى الصناعة عن مخاوفهم من أن المشروع قد يعيق تطوير الذكاء الاصطناعي، حيث شكر العديد منهم نيوسوم على الفيتو. حيث يجادلون بأن هذا القرار سيساعد على حماية التطوير مفتوح المصدر في المستقبل. وصف يان لو كون، كبير علماء الذكاء الاصطناعي في ميتا، هذا القرار بأنه "معقول" على منصة X (المعروفة سابقاً بتويتر).

وصف المستثمر البارز في الذكاء الاصطناعي مارك أندريسون الفيتو بأنه موقف من أجل "حيوية كاليفورنيا، والنمو الاقتصادي، وحرية الحوسبة." وقد تردد صدى مشاعر مشابهة من قِبل زعماء آخرين في الصناعة، الذين دعاوا إلى أنظمة تنظيمية لا تعيق المطورين الأصغر والنماذج الجديدة.

قال مايك كابوني، الرئيس التنفيذي لشركة كليك: "المسألة الأساسية ليست النماذج نفسها، بل تطبيقاتها." وأكد على أهمية التركيز على السياق وحالات الاستخدام بدلاً من التكنولوجيا نفسها. ودعا كابوني إلى أطر تنظيمية لضمان الاستخدام الآمن والأخلاقي.

كما أشاد أندرو نج، المؤسس المشارك لمنصة كورسيرا، بالفيتو باعتباره "مؤيداً للابتكار"، جارياً أنه ستحمي المبادرات مفتوحة المصدر.

ومع ذلك، هناك أصوات معارضة. صرح دين بال، خبير سياسة الذكاء الاصطناعي والتكنولوجيا في مركز ماركيتس بجامعة جورج ميسون، بأن الفيتو حاسم لكل من كاليفورنيا وأمريكا. وأشار إلى أن معايير حجم النماذج في مشروع القانون قديمة ولا تأخذ في الاعتبار النماذج الجديدة مثل تلك التي تطورها OpenAI.

انتقد لاف فارشني، أستاذ مشارك في جامعة إلينوي، مشروع القانون لعقوبته المطورين الأصليين بسبب الاستخدام التالي لتقنيتهم. واقترح نموذجاً لمشاركة المسؤولية يسمح بالابتكار بطريقة مفتوحة المصدر.

يوفر الفيتو لمطوري الذكاء الاصطناعي فرصة لتعزيز سياسات وممارسات الأمان الخاصة بهم. دعا كيل كارلسون، رئيس استراتيجية الذكاء الاصطناعي في دوميونو داتا لاب، الشركات إلى معالجة مخاطر الذكاء الاصطناعي بشكل استباقي وضمان حوكمة قوية على مدار دورة حياة الذكاء الاصطناعي.

أشارت نافريناسينغ، مؤسسة منصة حوكمة الذكاء الاصطناعي Credo AI، إلى الحاجة لفهم دقيق لما هي الأنظمة التنظيمية الضرورية، داعيةً إلى أن تكون الحوكمة مركزية للابتكار مع الحفاظ على الثقة والشفافية في السوق.

على النقيض، لم تكن جميع التفاعلات إيجابية. إذ أدانت مجموعات السياسة التكنولوجية الفيتو، حيث أكدت نيكول جيل، المؤسسة المشاركة لمنظمة Accountable Tech، أنه يُفضل الشركات الكبرى على حساب سلامة الجمهور. وزعمت أن الفيتو يعزز الوضع القائم، مما يسمح للشركات الكبرى بالربح دون مسؤولية.

وأعرب معهد سياسة الذكاء الاصطناعي عن نفس القلق، حيث انتقد المدير التنفيذي دانييل كولسون القرار باعتباره "خاطئًا وغير مسؤول."

تفتقر كاليفورنيا، التي تضم معظم شركات الذكاء الاصطناعي في البلاد، إلى أنظمة تنظيمية قوية تتماشى مع الطلب العام للرقابة. حالياً، لا توجد أوامر فدرالية بشأن الذكاء الاصطناعي التوليدي، حيث أن أقربها هو أمر تنفيذي من الرئيس بايدن. يحدد هذا الأمر إطاراً لاستخدام الوكالات للذكاء الاصطناعي ويشجع الشركات على تقديم نماذجها للتقييم طواعية.

تسعى إدارة بايدن أيضًا لمراقبة النماذج مفتوحة الوزن لرصد المخاطر المحتملة، مما يبرز المناقشات المستمرة حول سلامة الذكاء الاصطناعي والتنظيم.

Most people like

Find AI tools in YBX

Related Articles
Refresh Articles