أطلقت المملكة المتحدة قمة سلامة الذكاء الاصطناعي، حيث اجتمع قادة دول ورواد في مجال الذكاء الاصطناعي وخبراء عالميون في مكان ريفي له تاريخ عريق. تهدف القمة إلى وضع إطار دولي لتطوير ذكاء اصطناعي آمن. بعد ساعات من بدء الحدث، أعلنت الحكومة البريطانية عن اعتماد إعلان بليتشلي لسلامة الذكاء الاصطناعي، تكريمًا لبليتشلي بارك، مهد الحوسبة الحديثة ومكان جهود ألان تورينغ في فك الشفرات خلال الحرب العالمية الثانية.
يتضمن إعلان بليتشلي مجموعة من الالتزامات لضمان تصميم وتطوير واستخدام الذكاء الاصطناعي بطريقة آمنة، مع التركيز على مبادئ محورية الإنسان والثقة والمسؤولية. وقد تعهدت 28 دولة، بما في ذلك الولايات المتحدة والصين والاتحاد الأوروبي، بالتعاون عبر المنتديات الدولية القائمة لمعالجة مخاطر الذكاء الاصطناعي. يعترف الإعلان بأن الدول قد تصنف هذه المخاطر وفقًا لأطرها القانونية والسياقات الاجتماعية الخاصة بها.
كما تشير الاتفاقية إلى التزام بتنظيم مزيد من قمم سلامة الذكاء الاصطناعي، مما يسلط الضوء على ضرورة الحوار العالمي الشامل حول سلامة الذكاء الاصطناعي. وأشار رئيس الوزراء رishi Sunak إلى أهمية هذا الإجماع، قائلًا: "هذا إنجاز تاريخي يرى أعظم القوى في الذكاء الاصطناعي في العالم تتفق على ضرورة فهم مخاطر الذكاء الاصطناعي - مما يساعد في ضمان مستقبل أطفالنا وأحفادنا على المدى الطويل."
وأضافت وزيرة التكنولوجيا Michele Donelan أن القمة تمثل بداية رحلة طويلة نحو ضمان استفادة الجميع من تقنيات الذكاء الاصطناعي. ومع هذه التوجهات الواعدة، يشدد خبراء مثل Robert F. Trager، مدير مبادرة حوكمة الذكاء الاصطناعي في أكسفورد مارتن، على أن الاتفاق يفتقر إلى التفاصيل حول كيفية تعاون الدول بشكل فعال. وأشار إلى أن "القمة تبدو وكأنها حققت إعلانًا للمبادئ دون وضع خريطة طريق واضحة للتعاون الدولي."
وكشفت وزيرة التجارة الأمريكية Gina Raimondo عن خطط لإنشاء معهد لسلامة الذكاء الاصطناعي ضمن المعهد الوطني للمعايير والتكنولوجيا (NIST). ستركز هذه الهيئة الجديدة على إنشاء إرشادات وأدوات وأفضل الممارسات لتقييم مخاطر الذكاء الاصطناعي، بالإضافة إلى تقديم المشورة الفنية للجهات التنظيمية بشأن قضايا مثل الشفافية وتوسيم المحتوى الذي ينتجه الذكاء الاصطناعي. كما دعت Raimondo الصناعة والأوساط الأكاديمية للمشاركة بنشاط في هذه المبادرة، مشددة على الحاجة إلى الشراكات في هذا المسعى الحاسم.
وفي خطاب مسجّل مسبقًا، أكد الملك تشارلز الثالث على أهمية التعاون الدولي في معالجة سلامة الذكاء الاصطناعي، داعيًا إلى اتخاذ إجراءات سريعة وموحدة لحماية الخصوصية وسبل العيش. وأعرب جلالته عن شكره للحضور على وضعهم أسس إجماع دائم حول سلامة الذكاء الاصطناعي، معزّزًا من فكرة أن الذكاء الاصطناعي يجب أن يكون قوة إيجابية للخير.
في خطوة كبيرة لتعزيز الخبرات في مجال الذكاء الاصطناعي، أعلنت الحكومة البريطانية مؤخرًا عن تخصيص 118 مليون جنيه إسترليني (143 مليون دولار) لتعزيز التمويل لتطوير مهارات الذكاء الاصطناعي. يشمل ذلك إنشاء 12 مركزًا جديدًا للتدريب الدكتوراه في الذكاء الاصطناعي، مما يضمن رعاية أفضل المواهب العالمية لتحقيق أقصى استفادة من التحولات التي يحدثها الذكاء الاصطناعي. كما يتضمن الصندوق مليون جنيه إسترليني في منح "مستقبلات الذكاء الاصطناعي" تهدف لجذب الباحثين في الذكاء الاصطناعي إلى المملكة المتحدة.
ستتناول قمة سلامة الذكاء الاصطناعي التي تستمر على مدار يومين المخاطر المرتبطة بالنماذج المتقدمة للذكاء الاصطناعي، وتستكشف استراتيجيات التخفيف المحتملة. سيشارك الحضور في مناقشات تهدف إلى توضيح فهم مشترك لمخاطر الذكاء الاصطناعي، مع التركيز على موضوعات رئيسية مثل تقييمات السلامة الفعالة وآليات الحوكمة. ستحظى "النماذج الحدية" باهتمام كبير، حيث يُتوقع أن تشكل مخاطر كبيرة على المجتمع.
من الجدير بالذكر أن قائمة الضيوف تضم شخصيات رئيسية في قطاع الذكاء الاصطناعي، بما في ذلك ممثلون عن الأمم المتحدة، واليونسكو، ومؤسسات أكاديمية مرموقة مثل أكسفورد وستانفورد. كما ستشارك شركات الذكاء الاصطناعي البارزة مثل OpenAI وNvidia وGoogle DeepMind وIBM وMeta، إلى جانب الشركات الناشئة الرائدة في هذا المجال.
بينما ترحب القمة بمجموعة متنوعة من الخبراء، ظهرت مخاوف بشأن التمثيل المحدود للشركات الصغيرة الناشئة في مجال الذكاء الاصطناعي. وأشار Victor Botev، المدير التقني لشركة Iris.ai، إلى أن القمة كان يمكن أن تستفيد بشكل أفضل من مناقشة مجموعة أوسع من الأصوات، خاصة من تلك الشركات الصغيرة الابتكارية التي تلعب غالبًا دورًا حيويًا في ريادة تطورات الذكاء الاصطناعي.
بينما تتواصل القمة، ستكون فرصة حاسمة للقادة العالميين لمعالجة قضايا سلامة الذكاء الاصطناعي العاجلة، مما يعزز بيئة يمكن أن تظهر فيها حلول تعاونية لاستغلال فوائد الذكاء الاصطناعي مع التخفيف من مخاطرها المتأصلة.