تعاون OpenAI وAnthropic لتبادل نماذج الذكاء الاصطناعي مع المعهد الأمريكي لسلامة الذكاء الاصطناعي، بهدف تعزيز السلامة والإشراف.

توصلت OpenAI وAnthropic إلى اتفاقية مهمة لمشاركة نماذج الذكاء الاصطناعي الخاصة بهما—قبل وبعد الإطلاق العام—مع المعهد الأمريكي الجديد لسلامة الذكاء الاصطناعي. تم تأسيس هذا المعهد بأمر تنفيذي من الرئيس بايدن في عام 2023، وسيقدم ملاحظات حيوية لتحسين نماذج الشركات. وقد أشار الرئيس التنفيذي لـ OpenAI، سام ألتمان، إلى هذا التعاون في وقت سابق من هذا الشهر.

بينما لم يذكر المعهد الأمريكي لسلامة الذكاء الاصطناعي شركات أخرى تعمل في مجال الذكاء الاصطناعي، أفاد متحدث باسم جوجل بأن الشركة تخوض مناقشات مع المعهد وستقدم مزيدًا من التفاصيل في الوقت المناسب. ومن الجدير بالذكر أن جوجل بدأت في طرح تحديثات على نماذج روبوت الدردشة ومولد الصور ضمن برنامج Gemini.

قالت إليزابيث كيلي، مديرة المعهد الأمريكي لسلامة الذكاء الاصطناعي: "السلامة ضرورية لتحقيق الابتكار التكنولوجي الفائق. مع هذه الاتفاقيات، نتطلع إلى التعاون الفني مع Anthropic وOpenAI لتعزيز سلامة الذكاء الاصطناعي." وأكدت أن "هذه الاتفاقيات تمثل مجرد بداية جهودنا لتوجيه مستقبل الذكاء الاصطناعي بشكل مسؤول."

يعمل المعهد الأمريكي لسلامة الذكاء الاصطناعي ضمن المعهد الوطني للمعايير والتكنولوجيا (NIST)، ويتولى مسؤولية وضع الإرشادات، واختبارات الأداء، وأفضل الممارسات لتقييم أنظمة الذكاء الاصطناعي المحتملة الخطورة. وأكدت نائبة الرئيس كامالا هاريس في أواخر عام 2023 الطبيعة المزدوجة لتأثير الذكاء الاصطناعي، مشيرة إلى إمكاناته في تحقيق تقدم كبير وأيضًا المخاطر الجادة، بما في ذلك الهجمات السيبرانية المستندة إلى الذكاء الاصطناعي والأسلحة البيولوجية.

تُوَّجَه هذه الاتفاقية الرائدة من خلال مذكرة تفاهم غير ملزمة، مما يسمح للمعهد بالوصول إلى النماذج الجديدة الرئيسية لكل شركة قبل وبعد الإطلاق العام. ويصنف المعهد الأمريكي لسلامة الذكاء الاصطناعي هذه الاتفاقيات كجهود بحثية تعاونية تركز على تقييم القدرات وضمان السلامة. علاوة على ذلك، سيتعاون مع المعهد البريطاني لسلامة الذكاء الاصطناعي.

بينما تسعى الهيئات التنظيمية الفيدرالية والولائية إلى إنشاء تدابير لسلامة الذكاء الاصطناعي، أقرّت جمعية كاليفورنيا التشريعية مؤخرًا مشروع قانون لسلامة الذكاء الاصطناعي (SB 10147). يتطلب هذا التشريع إجراء اختبارات سلامة لنماذج الذكاء الاصطناعي التي تكلف أكثر من 100 مليون دولار لتطويرها أو التي تحتاج إلى قوة حسابية كبيرة. كما يتطلب من مطوري الذكاء الاصطناعي تنفيذ مفاتيح إيقاف لإيقاف النماذج التي تصبح "خارجة عن السيطرة أو يصعب التحكم فيها."

على عكس الاتفاقية الطوعية مع الحكومة الفيدرالية، يتضمن مشروع قانون كاليفورنيا أحكامًا قابلة للتنفيذ، مما يسمح للمدعي العام للولاية باتخاذ إجراءات قانونية ضد مطوري الذكاء الاصطناعي غير الملتزمين، خاصة خلال الأحداث ذات التهديدات الحرجة. ينتظر مشروع القانون تصويتاً نهائياً واحداً وتوقيع الحاكم غافين نيوسوم، الذي لديه حتى 30 سبتمبر للموافقة عليه.

Most people like

Find AI tools in YBX

Related Articles
Refresh Articles