نقاش خبراء الذكاء الاصطناعي والسياسة حول دور الفعالية الخيرية في أمن الذكاء الاصطناعي

في الشهر الماضي، استكشفت تداخل لم يعد بالإمكان إنكاره بين حركة الإيثار الفعال (EA) وسياسة أمان الذكاء الاصطناعي، مما يربط بين شركات الذكاء الاصطناعي المؤثرة مثل Anthropic ومراكز الفكر في واشنطن مثل مؤسسة RAND. يربط هذا الشبكة المتزايدة بين مهمة EA في معالجة المخاطر الكارثية المتوقعة من الذكاء الاصطناعي العام (AGI) والوكالات الحكومية المختلفة ومراكز الفكر والمكاتب الكونغرسية.

يعبر النقاد عن قلقهم من أن تركيز EA على المخاطر الوجودية، أو "x-risk"، يشتت الانتباه عن معالجة المخاطر الفورية والملموسة للذكاء الاصطناعي، مثل التحيز، والمعلومات المضللة، والتهديدات السيبرانية التقليدية. ومنذ ذلك الحين، سعت للحصول على وجهات نظر من قادة الذكاء الاصطناعي والسياسة الذين لا يتبنون الإيثار الفعال، ولا وجهة النظر المضادة له، وهي الإيجابية الفعالة (e/acc). هل هناك شركات أخرى قلقة بنفس القدر من احتمال وقوع نماذج اللغات الكبيرة (LLM) في الأيدي الخبيثة؟ هل يفهم صانعو السياسات في واشنطن تأثير EA على المبادرات الأمنية المتعلقة بالذكاء الاصطناعي بشكل كافٍ؟

تزيد أهمية هذا الاستفسار مع إصدار Anthropic بحثًا جديدًا حول نماذج الذكاء الاصطناعي "النائمة" التي تتجنب بروتوكولات الأمان، بينما تثير الكونغرس قضايا حول التعاون المحتمل بين المعهد الوطني للمعايير والتقنية (NIST) ومؤسسة RAND. علاوة على ذلك، تبرز العناوين الأخيرة EA فيما يتعلق بالفصل المثير للجدل لرئيس OpenAI، سام ألتمان، حيث كان أعضاء مجلس إدارة المنظمة غير الربحية المعنيين مرتبطين بشكل رئيسي بـ EA.

خلال المحادثات التي أجريتها الشهر الماضي، اكتشفت مزيجًا معقدًا من وجهات النظر. بينما هناك قلق كبير بشأن إيديولوجية EA المدعومة من المليارديرات وتأثيرها على نقاشات أمان الذكاء الاصطناعي في واشنطن، إلا أن البعض يعترفون بأهمية مناقشة المخاطر طويلة الأجل للذكاء الاصطناعي في إطار السياسة.

الإيثار الفعال والوقاية من كوارث الذكاء الاصطناعي

تأسست حركة الإيثار الفعال في الأصل لتحسين رفاهية العالم، لكنها أصبحت الآن تعتمد بشكل كبير على المليارديرات في مجال التكنولوجيا الذين يعطون الأولوية للتخفيف من الكوارث المتعلقة بالذكاء الاصطناعي، خاصة في مجال الأمن الحيوي. في مقالتي السابقة، أبرزت المخاوف التي عبر عنها CISO لي أنثروبيك، جيسون كلينتون، وباحثو RAND حول أمان أوزان نماذج LLM ضد التهديدات من المجرمين الانتهازيين والجهات المدعومة من الدولة.

أكد كلينتون أن حماية أوزان النموذج لClaude، نموذج LLM من Anthropic، هي أهم أولوياته. وحذر من أنه إذا تمكنت الكيانات الضارة من الوصول إلى ملف النموذج بالكامل، فقد يشكل ذلك تهديدًا كبيرًا. يتوقع الباحث في RAND، سيلا نيفو، أنه خلال عامين، قد تكتسب نماذج الذكاء الاصطناعي أهمية للأمن القومي، لا سيما فيما يتعلق بإمكانية استخدامها من قبل الجهات السيئة.

يتشارك الأفراد الثلاثة الذين تحدثت معهم روابط مع مجتمع EA، حيث كان جيسون ماثيني، الرئيس التنفيذي لمؤسسة RAND، متورطًا سابقًا مع صندوق المنافع الطويلة الأجل لـ Anthropic. وقد دفعتني تقارير بريندان بورديلون، التي أشارت إلى اختراق الممولين المرتبطين بـ EA في المشهد السياسي في واشنطن باعتباره "اختراقًا ملحميًا"، للتعمق أكثر في تأثير EA المتزايد. كما يقول بورديلون، فإن فئة مخصصة من داعمي الإيثار الفعال تشكل بشكل كبير أساليب إدارة الذكاء الاصطناعي.

استجابة Cohere لمخاوف EA

تحدثت مع نيك فروسيت، الشريك المؤسس لشركة Cohere، وهي منافس في مجال الذكاء الاصطناعي لـ Anthropic وOpenAI، الذي يختلف مع فكرة أن نماذج اللغات الكبيرة تمثل تهديدًا وجوديًا. وأشار إلى أن Cohere تأمن أوزان نماذجها، لكن القلق الرئيسي يتعلق بالأعمال بدلاً من الوجود.

وقد أشار فروسيت إلى تمييز فلسفي، مؤكدًا: "أعتقد أننا قد نطور في نهاية المطاف ذكاءً اصطناعيًا عامًا حقيقيًا، لكنني لا أعتقد أن ذلك سيحدث قريبًا." وقد انتقد EA بسبب ما يعتبره إدعاءً بالنزاهة حول مخاطر الذكاء الاصطناعي وتساءل عن إطارها الأخلاقي بشأن تراكم الثروات. وجادل بأن نهج EA يبسط التأثيرات الإنسانية المعقدة إلى مقاييس قابلة للقياس، مما يؤدي إلى استنتاجات أخلاقية مشكوك فيها حول مخاطر الذكاء الاصطناعي الوجودية.

AI21 Labs حول أوزان النموذج والأمان

يوآف شورهام، الشريك المؤسس لشركة AI21 Labs، وهي منافس آخر في مجال الذكاء الاصطناعي، أكد على مشاعر مشابهة، مشددًا على أنهم يحميون أوزان نماذجهم لأسباب تتعلق بسرية التجارة، ولكن هذه الأوزان ليست الممكّن الرئيسي للجهات الضارة. وأشار إلى أنه في المشهد الجيوسياسي للذكاء الاصطناعي اليوم، لا يمكن معالجة غالبية المشكلات فقط من خلال السياسة.

شدد شورهام على أن AI21 Labs ليست جزءًا من حركة EA ويرى مزيجًا من استخدام الذكاء الاصطناعي بشكل مسؤول مع الخوف غير المبرر داخل الحركة.

نقد وجهات نظر EA في RAND

بينما يوجد انتقاد لـ RAND بسبب علاقاتها مع EA، يتنازع بعض الباحثين داخليًا حول الإيديولوجيات السائدة للحركة. وسجل مارك بوسارد، عالم الاجتماع العسكري في RAND، أن النقاشات الفلسفية المتعلقة بالذكاء الاصطناعي، بما في ذلك تلك التي بدأها مؤيدو EA وe/acc، تشتت الانتباه عن القضايا الفعلية المتعلقة بالسياسة الذكاء الاصطناعي.

صرح أنه بينما يتم الترحيب بوجهات النظر المتنوعة في RAND، يجب أن يبقى التركيز على معالجة المشاكل الواقعية بدلاً من المعارك الإيديولوجية حول إدارة الذكاء الاصطناعي.

معالجة المخاطر الحالية في الأمن السيبراني

بينما تتداخل مجالات أمان الذكاء الاصطناعي والأمن السيبراني التقليدي، يركز الأمن السيبراني التقليدي أكثر على المخاطر المعاصرة. وقد اعترف دان دي بوبين، الذي يقود أبحاث الذكاء الاصطناعي في معهد SANS، بتأثير حركة EA لكنه أكد على أهمية فهم التهديدات الحالية المتعلقة بموديلات LLM أكثر من المخاطر الوجودية.

التعايش مع مناقشات EA في واشنطن

تعترف بعض الجهات الحكومية بتأثير EA على أمان الذكاء الاصطناعي ولكنها تفضل التعايش بدلاً من مواجهة مبادئه مباشرة. شدد مارك بيل، الرئيس السابق لقسم سياسة الذكاء الاصطناعي في وزارة الدفاع الأمريكية، على أهمية وجود تدابير أمان راسخة بدلاً من السرعة المتهورة التي تشجع عليها ثقافة التكنولوجيا.

مع تسليط الضوء على عمله في البنتاغون بشأن سياسة الذكاء الاصطناعي المسؤولة، تناقض بيل الادعاءات بأن مسؤولي واشنطن يفتقرون إلى الوعي بمخاطر الذكاء الاصطناعي، مؤكدًا أنهم أعطوا الأولوية للسلامة قبل فترة طويلة من دخول أنصار الإيثار الفعال الساحة السياسية.

تحدي "الذكاء الاصطناعي غير المُدار"

إيان بريمير، رئيس مجموعة يوراسيا، أدرج مؤخرًا "الذكاء الاصطناعي غير المُدار" ضمن أعلى المخاطر الجيوسياسية لعام 2024، مشيرًا إلى تهديدات ملموسة مثل المعلومات المضللة المتعلقة بالانتخابات. وأقر بوجود نقاش قيم حول أمان أوزان النماذج لكنه انتقد حركة EA لتقليلها من المخاطر الأخرى من خلال التركيز حصريًا على النتائج الكارثية.

في الختام، أشار بريمير إلى أن تقديم المخاطر كوجودية قد يحجب القضايا الملحة، مما يضعف النقاش الشامل اللازم لإدارة فعالة للذكاء الاصطناعي.

Most people like

Find AI tools in YBX

Related Articles
Refresh Articles