محتجون يتجمعون خارج مكتب OpenAI احتجاجًا على الاستخدام العسكري للذكاء الاصطناعي وتطوير الذكاء العام الاصطناعي.

تجمع العشرات من المحتجين أمام مقر OpenAI في سان فرانسيسكو مساء يوم الاثنين، معبرين عن قلقهم بشأن تطوير الشركة لتقنيات الذكاء الاصطناعي، بينما كان الموظفون يغادرون العمل.

تظاهرة نظمتها مجموعة Pause AI وNo AGI، دعت مهندسي OpenAI إلى وقف العمل على نظم الذكاء الاصطناعي المتقدم، بما في ذلك روبوت الدردشة ChatGPT. كانت رسالتهم واضحة: التوقف عن السعي نحو الذكاء العام الاصطناعي (AGI) الذي قد يتفوق على القدرات البشرية وتجنب الروابط العسكرية.

تأثرت التظاهرة جزئياً بقرار OpenAI الأخير بإزالة فقرة من سياسة الاستخدام التي تمنع الاستخدام العسكري للتقنيات الذكاء الاصطناعي. وبعد فترة قصيرة من تغيير السياسة، ظهرت تقارير تفيد بأن OpenAI قد حصلت على البنتاغون كعميل.

وجاء في وصف الحدث: "نطالب OpenAI بإنهاء علاقتها مع البنتاغون ورفض جميع العملاء العسكريين. إذا كانت الحدود الأخلاقية يمكن تغييرها لملاءمة المصالح، فلا يمكن الوثوق بها."

تحدثت وسائل الإعلام مع منظمي الاحتجاج لفهم أهدافهم وتعريفاتهم للنجاح. قال سام كيرشنر، رئيس No AGI: "مهمة No AGI هي زيادة الوعي حول مخاطر تطوير AGI. يجب أن نركز على مبادرات مثل محاكاة الدماغ الكامل التي تعطي الأولوية للفكر البشري في الذكاء."

وأعربت هولي إلمور، المنظمة الرئيسية لمجموعة Pause AI، عن رغبة مجموعتها في "توقف عالمي وغير محدود عن تطوير AGI حتى يتم الاعتراف بأنه آمن." وشددت على أن "إنهاء الروابط العسكرية هو حدود حاسمة."

تأتي التظاهرة وسط تزايد القلق العام بشأن الآثار الأخلاقية للذكاء الاصطناعي. إن ارتباط OpenAI بالبنتاغون قد أعاد إشعال النقاش حول عسكرة الذكاء الاصطناعي وتأثيراته المحتملة.

تتمحور مخاوف المحتجين حول AGI، وهو القدرة على أداء الآلات للمهام الفكرية البشرية بسرعة ونطاق غير مسبوق. تمتد مخاوفهم إلى ما هو أبعد من فقدان الوظائف والاستقلالية في الحروب؛ بل تعكس القلق بشأن تغيير ديناميكيات القوة وصنع القرار في المجتمع.

حذر كيرشنر قائلاً: "إذا نجحنا في بناء AGI، فإننا نواجه خطر فقدان المعنى الأساسي في حياتنا بسبب ما يسمى بالتهديد النفسي، حيث تتولى AGI كل شيء. وستفقد الناس المعنى في العمل، وهو أمر حاسم لمجتمعنا الحالي."

وأضافت إلمور: "إن التنظيم الذاتي غير كافٍ؛ يجب أن يكون هناك إشراف خارجي. لقد عكست OpenAI التزاماتها في كثير من الأحيان—ادعى سام ألتمان في يونيو أن المجلس يمكنه إقالته، ولكن في نوفمبر، لم يعد بالإمكان إقالته. تظهر تناقضات مماثلة مع سياسة الاستخدام والعقود العسكرية—تبدو هذه السياسات غير فعالة إذا سمحت بإجراءات غير محدودة."

بينما تشترك كل من Pause AI وNo AGI في هدف وقف تطوير AGI، تختلف طرقهما. Pause AI منفتحة على فكرة تطوير AGI بشكل آمن، بينما تعارض No AGI ذلك بشدة، مشيرة إلى التهديدات النفسية المحتملة وفقدان المعنى الفردي.

تشير كلا المجموعتين إلى أن هذه التظاهرة لن تكون الأخيرة، ويمكن للآخرين المهتمين بمخاطر الذكاء الاصطناعي الانخراط من خلال موقعهما الإلكتروني ووسائل التواصل الاجتماعي. في الوقت الحالي، تواصل وادي السيليكون تقدمها السريع نحو مستقبل الذكاء الاصطناعي غير المؤكد.

Most people like

Find AI tools in YBX

Related Articles
Refresh Articles