هل تعتبر مخرجات الذكاء الاصطناعي خطابًا محميًا؟ خبير قانوني يحذر من هذا المفهوم الخطير

الذكاء الاصطناعي التوليدي ونقاش الخطاب: آراء قانونية والمخاطر

يتسم الذكاء الاصطناعي التوليدي بالتطور المتزايد، حيث ينتج محتوى تعبيرياً وإعلامياً وغالباً ما يكون مقنعاً. يقترح خبراء قانونيون في الولايات المتحدة بشكل مثير للجدل أن مخرجات نماذج اللغة الكبيرة قد تكون محمية بموجب التعديل الأول، مما قد يمتد ليشمل محتوى قد يكون ضاراً، ويضع مثل هذه المخرجات خارج نطاق إشراف الحكومة.

الدعوة إلى التنظيم

يؤكد بيتر سليم، أستاذ مساعد في كلية القانون بجامعة هيوستن، أن التنظيم الفعال ضروري لتجنب العواقب الكارثية نتيجة المحتوى المولد بواسطة الذكاء الاصطناعي. ستظهر آراؤه في مراجعة كلية القانون بجامعة واشنطن. ويشرح سليم قائلاً: "الخطاب المحمي هو فئة دستورية مقدسة"، مشيراً إلى المخاوف بشأن التداعيات إذا تم اعتبار مخرجات نماذج متقدمة مثل GPT-5 محمية، مما قد يعوق قدرتنا على تنظيم هذه التقنيات بشكل خطير.

الحجج الداعمة للذكاء الاصطناعي كخطاب محمي

قبل عام، ادعى الصحفي القانوني بنيامين ويتيز أننا قد منحنا "حقوق التعديل الأول" لماكينات مثل ChatGPT. وأكد أن هذه الأنظمة الذكية "تعبيرية بلا شك" وتنتج محتوى شبيهاً بالخطاب عبر توليد النصوص والصور والمشاركة في الحوارات. وأشار ويتيز إلى أنه على الرغم من أن محتوى الذكاء الاصطناعي قد يكون مشتقًا، فإن التعديل الأول يحمي التعبير بدلاً من الأصالة. كما يشير سليم إلى أن العديد من العلماء بدأوا يدركون أن مخرجات الذكاء الاصطناعي تشبه الخطاب بشكل كافٍ لتبرير الحماية.

يجادل البعض أن هذه المخرجات تمثل الخطاب المحمي للمبرمجين البشريين المعنيين، بينما يؤكد آخرون أنها تعود إلى المالكين الشركات لأنظمة الذكاء الاصطناعي مثل ChatGPT. ومع ذلك، يقول سليم: "مخرجات الذكاء الاصطناعي لا تمثل اتصالات من أي متحدث يتمتع بحقوق التعديل الأول؛ فهي ليست تعبيرات إنسانية".

المخاطر الناشئة من مخرجات الذكاء الاصطناعي

تتقدم تقنيات الذكاء الاصطناعي بسرعة، مما يؤدي إلى أنظمة أكثر كفاءة تُستخدم بطرق ذات طابع مستقل وغير متوقع. يحذر سليم، الذي يقدم المشورة لمركز سلامة الذكاء الاصطناعي، من أن الذكاء الاصطناعي التوليدي قد ينتج مخاطر جسيمة، بما في ذلك تركيب أسلحة كيميائية مميتة والهجمات على البنية التحتية الحيوية. ويقول: "هناك أدلة تجريبية قوية تشير إلى أن أنظمة الذكاء الاصطناعي التوليدية في المستقبل القريب ستشكل مخاطر كبيرة على حياة البشر"، متوقعاً سيناريوهات مثل الإرهاب البيولوجي والاغتيالات السياسية الآلية.

الذكاء الاصطناعي: خطاب ولكن ليس خطاباً بشرياً

يبدأ القادة العالميون في سن تشريعات تهدف إلى ضمان عمليات الذكاء الاصطناعي الآمنة والأخلاقية. قد تتطلب هذه القوانين من أنظمة الذكاء الاصطناعي الامتناع عن توليد محتوى ضار، مما قد يُعتبر بمثابة رقابة على الخطاب. يشير سليم إلى أنه إذا كانت مخرجات الذكاء الاصطناعي خطاباً محميًا، فإن أي تنظيم سيواجه تدقيقًا دستوريًا صارمًا، مما يتيح التنظيم في حالات تهديد وشيك فقط.

يؤكد على التمييز بين مخرجات الذكاء الاصطناعي والخطاب البشري. بينما يعكس البرمجيات التقليدية نوايا بشرية، فإن الذكاء الاصطناعي التوليدي يهدف إلى إنتاج أي محتوى، دون وجود نية تواصل محددة.

حقوق خطاب الشركات والتنظيم

تمتلك الشركات، رغم كونها ليست بشراً، حقوق خطاب مشتقة. يجادل سليم بأن حقوق الشركات تعتمد على حقوق المبدعين البشريين. إذا كانت مخرجات نماذج اللغة الكبيرة لا تؤهل كخطاب محمي، سيكون من غير المنطقي أن تحصل على الحماية عند نشرها بواسطة الشركات.

لتخفيف المخاطر بفعالية، يدعو سليم إلى تنظيم مخرجات الذكاء الاصطناعي بدلاً من تقييد عملياتها التوليدية. لا يمكن السيطرة على نماذج اللغة الكبيرة الحالية أو برمجتها لتجنب المخرجات الضارة بسبب تعقيدها وعدم إمكانية التنبؤ بها. وينبغي أن تركز التنظيمات الناجحة على طبيعة مخرجات الذكاء الاصطناعي - تحديد ما إذا كان محتوى النموذج آمنًا بما يكفي للنشر. ستشجع هذه الطريقة شركات الذكاء الاصطناعي على إعطاء الأولوية للسلامة في التطوير.

في النهاية، يؤكد سليم قائلاً: "يجب أن تصمم القوانين لمنع الخداع أو الأذى للناس"، مما يدل على الحاجة الملحة للعمل التشريعي الدقيق في مواجهة تقدم قدرات الذكاء الاصطناعي.

Most people like

Find AI tools in YBX