تشعل السعي نحو الذكاء الاصطناعي العام (AGI) - أنظمة الذكاء الاصطناعي التي تحاكي القدرات البشرية عبر مهام متنوعة - نقاشاً حماسياً بين العلماء. تتفاوت الآراء، حيث يرى بعض الخبراء أن AGI لا يزال بعيد المنال، بينما يتنبأ آخرون بظهوره خلال عقد من الزمن. من الجدير بالذكر أن البعض يعتقد أن هناك "شرارات من AGI" واضحة بالفعل في النماذج اللغوية الكبيرة الحالية (LLMs).
لتوضيح هذا النقاش، قدم فريق من جوجل ديب مايند، بقيادة كبير علماء AGI شين ليغ، إطار عمل جديد يهدف إلى تصنيف قدرات وسلوكيات أنظمة AGI وسابقتها.
تعريف AGI
تتمثل إحدى التحديات الكبرى في تطوير AGI في تحديد تعريف واضح له. يقوم الباحثون في ديب مايند بتقييم تسعة تعريفات، بما في ذلك اختبار تورينج، واختبار القهوة، وتقييمات الوعي، والمعايير الاقتصادية، ومعايير الأداء المتعلقة بالمهام. ويؤكدون على محدوديات كل تعريف في التقاط جوهر AGI بشكل كامل.
على سبيل المثال، بينما يمكن للنماذج اللغوية الكبيرة اجتياز اختبار تورينج، فإن مجرد توليد نص مقنع لا يؤهلها كـ AGI، وهو واقع يُبرز حدود هذه النماذج الحالية. علاوة على ذلك، يُعتبر نسبة الوعي إلى الآلات مسعى غامضًا. تشير العلامات السلبية في اختبارات محددة - مثل تحضير القهوة في مطبخ غير مألوف - إلى عدم كونها AGI، لكن اجتياز المهام وحده لا يؤكد ذلك.
لتعزيز الفهم العميق لـ AGI، يقترح الباحثون ستة معايير لتقييم الذكاء الاصطناعي:
1. التركيز على القدرات: يجب أن تُعطي معايير AGI الأولوية للقدرات بدلاً من الخصائص غير المحددة مثل الفهم البشري أو الوعي.
2. العمومية والأداء: يجب أن تأخذ التقييمات في الاعتبار مدى تنوع المهام التي يمكن أن يؤديها الذكاء الاصطناعي ومستوى أدائه.
3. المتطلبات المعرفية: يجب أن يتضمن AGI مهامًا معرفية ومتعارضة، بينما ليس من الضروري تجسيده ماديًا.
4. إمكانات المهام: يكفي أن تكون هناك قدرة على القيام بمهام بمستوى AGI، حتى لو لم يكن النظام قابلاً للتنفيذ حاليًا. تتضمن متطلبات التنفيذ تحديات غير تقنية، بما في ذلك التبعات الأخلاقية والقانونية.
5. الصلاحية البيئية: يجب أن تركز معايير AGI على المهام الواقعية التي تحمل قيمة للمجتمع.
6. نموذج المسار: AGI ليس نقطة نهاية واحدة؛ بل يمثل استمرارية تتضمن مستويات مختلفة من الذكاء.
طيف الذكاء
أنشأت ديب مايند مصفوفة تقيم "الأداء" و"العمومية" عبر خمسة مستويات، من عدم وجود ذكاء اصطناعي إلى AGI فائق البشرية. يعكس الأداء كيف تقارن قدرات الذكاء الاصطناعي بالمهارات البشرية، بينما تقيس العمومية مدى تنوع المهام التي يمكن أن يتعامل معها الذكاء الاصطناعي بفعالية.
تفرق هذه المصفوفة بين الذكاء الاصطناعي الضيق والعام. على سبيل المثال، أنظمة الذكاء الاصطناعي الضيق الفائقة مثل AlphaZero وAlphaFold تت excel في مهام محددة. بينما تقع النماذج اللغوية المتقدمة، مثل ChatGPT وBard وLlama 2، تحت "الكفاءة" (المستوى 2) في بعض المهام مثل كتابة المقالات، لكنها لا تزال "ناشئة" (المستوى 1) في مجالات مثل الرياضيات والمنطق.
يؤكد الباحثون أن النماذج اللغوية المتقدمة الحالية ستصنف كمستوى 1 ذكاءً عامًا ("AGI الناشئة") حتى تُظهر أداءً أعلى عبر مجموعة أوسع من المهام. كما يحذرون من أن التصنيفات النظرية قد لا تتماشى مع الأداء الواقعي. على سبيل المثال، قد تتمكن أنظمة تحويل النص إلى صور من إنشاء صور عالية الجودة مقارنةً بالفنانين البشر، لكنها قد تفتقر إلى استحقاق "الفنان البارع" بسبب بعض الأخطاء.
تؤيد ديب مايند وجود معيار لـ AGI يتضمن مجموعة من المهام المعرفية والمتعارضة، بما في ذلك المهارات اللغوية، وقدرات التفكير، والإبداع. يدركون التحدي المتمثل في تعريف كل مهمة يمكن تصورها بواسطة ذكاء عام كافٍ، مقترحين أن يكون معيار AGI إطار عمل ديناميكي يتكيف مع المهام الجديدة عند ظهورها.
تقييم الاستقلالية والمخاطر
تقدم ديب مايند مصفوفة لتقييم الاستقلالية والمخاطر المرتبطة بأنظمة الذكاء الاصطناعي. تتراوح من مستوى 0، حيث يقوم البشر بأداء جميع المهام، إلى مستوى 5، الذي يشير إلى الاستقلالية الكاملة، ويتضمن مستويات حيث يتشارك البشر والذكاء الاصطناعي المسؤوليات.
تتطور المخاطر الناتجة عن أنظمة الذكاء الاصطناعي مع زيادة الاستقلالية. عند المستويات الأدنى، قد تشمل المخاطر تراجع مهارات العمال والاضطرابات في الصناعات. قد تثير المستويات الأعلى من الاستقلالية مخاوف خطيرة، مثل التلاعب المستهدف بالأفراد من خلال محتوى مخصص وعدم توافق أخلاقي في الوكلاء المستقلين بالكامل.
في حين أن إطار عمل ديب مايند قد يواجه قيودًا وانتقادات، إلا أنه يعد دليلاً هامًا لقياس التقدم نحو تطوير أنظمة الذكاء الاصطناعي التي يمكن أن تتجاوز في النهاية القدرات البشرية.