أصدر باحثون وأكاديميون من معهد ماساتشوستس للتكنولوجيا (MIT) ورقة سياسة توضح أهمية توسيع الإطار التنظيمي للحكومة الأمريكية في مجال الذكاء الاصطناعي (AI). تحمل الورقة عنوان "خلق قطاع ذكاء اصطناعي آمن ومزدهر"، وتسلط الضوء على ضرورة توسيع الأطر القانونية الحالية لتشمل تقنيات الذكاء الاصطناعي. يتضمن ذلك اقتراحات لدمج الذكاء الاصطناعي في تنظيمات الرعاية الصحية، خصوصًا فيما يتعلق بالتشخيصات المعززة بالذكاء الاصطناعي. علاوة على ذلك، يدعو المؤلفون إلى أن يخضع الذكاء الاصطناعي لنفس الحوكمة التي تنظم العمليات الحكومية الحالية، مثل ممارسات الشرطة، وقرارات الكفالة، وعمليات التوظيف.
يؤكد الباحثون أن أي قوانين تنظم الأنشطة البشرية يجب أن تنطبق أيضًا على أنظمة الذكاء الاصطناعي. ويقولون: "إذا كانت الأنشطة البشرية بدون استخدام الذكاء الاصطناعي خاضعة للتنظيم، فعندئذ يجب أن يخضع استخدام الذكاء الاصطناعي للتنظيم بشكل مماثل." ستضمن هذه المبدأ أن تتوافق تطوير ونشر واستخدام أنظمة الذكاء الاصطناعي مع نفس المعايير المعتمدة للأنشطة البشرية في المجالات ذات الصلة.
تشير الورقة إلى التطبيقات عالية المخاطر للذكاء الاصطناعي، والتي تخضع بالفعل للتدقيق بموجب القوانين الحالية، كنقاط تركيز رئيسية. على سبيل المثال، فإن تنظيم المركبات ذاتية القيادة، التي يجب أن تفي بنفس المعايير التي تطبق على المركبات التي يقودها البشر، يوضح كيف يمكن تطبيق الأطر القائمة بشكل فعال.
كما يجادل المؤلفون بأنه يجب إلزام مطوري أنظمة الذكاء الاصطناعي ذات الأغراض العامة، مثل ChatGPT، بتحديد الغرض المقصود من تقنياتهم بوضوح قبل إطلاقها. وستسمح هذه المساءلة للجهات التنظيمية بوضع إرشادات محددة للاستخدامات المقصودة، مما يضمن توافق المطورين مع هذه المعايير المحددة.
تشدد الورقة على ضرورة توضيح القضايا المتعلقة بحقوق الملكية الفكرية في سياق الذكاء الاصطناعي. يقترح المؤلفون تطوير آليات لمساعدة المبدعين في حماية أعمالهم من الانتهاكات المحتملة، مؤكدين على أهمية وضع ملصقات إلزامية على المحتوى الذي تم إنشاؤه بواسطة الذكاء الاصطناعي كحل محتمل.
تسلط الورقة الضوء أيضًا على الضبابية الحالية المتعلقة بكيفية تطبيق الأطر التنظيمية والقانونية القائمة عند وجود الذكاء الاصطناعي. وتشير إلى أنه "ليس من الواضح ما إذا كانت وكيف تطبق الأطر الحالية عندما يتعلق الأمر بالذكاء الاصطناعي، وما إذا كانت قادرة على الوفاء بالمهمة." تخلق هذه الضبابية بيئة صعبة للمزودين والمستخدمين والجمهور عمومًا، الذين قد يشعرون بالقلق حيال المخاطر المرتبطة بتقنيات الذكاء الاصطناعي. ويشدد المؤلفون على أهمية توفير الوضوح والإشراف الإضافي لتشجيع التنمية والاستخدام المسؤولين للذكاء الاصطناعي، مما يعظم الفوائد لجميع الأمريكيين.
وفقًا لدان هوتنلوشر، عميد كلية شوارزمان للحوسبة في MIT، "كبلد، نحن بالفعل نقوم بتنظيم العديد من الأمور عالية المخاطر وتوفير الحوكمة هناك. لا نقول إن ذلك كافٍ، لكن دعونا نبدأ بالمجالات التي يتم تنظيم الأنشطة البشرية فيها والتي اعتبرتها المجتمع عالية المخاطر. إن التعامل مع تنظيم الذكاء الاصطناعي بهذه الطريقة هو الطريق العملي للمضي قدمًا."
تتوافق هذه الورقة السياسية مع العديد من الأوراق الأخرى التي تستكشف جوانب مختلفة من الذكاء الاصطناعي، بما في ذلك إدارة نماذج اللغة الكبيرة، واستراتيجيات الذكاء الاصطناعي التي تدعم العمال، ووضع ملصقات على المحتوى المنتج باستخدام الذكاء الاصطناعي، مما يشير إلى التزام أوسع بإنشاء بيئة تنظيمية جيدة في مجال الذكاء الاصطناعي.