بعد ثلاثة أيام من إقالة سام ألتمان غير المتوقعة من منصب الرئيس التنفيذي لشركة OpenAI، واجهت مجتمع الذكاء الاصطناعي حالة من الارتباك والقلق. وسط هذه الفوضى، طرح الملياردير التكنولوجي إيلون ماسك سؤالًا حاسمًا على كبير علماء OpenAI، إيليا سوتسكيبر، عبر منصة "X" (تويتر سابقًا): "لماذا اتخذتم مثل هذا الإجراء الجذري؟ إذا كانت OpenAI تفعل شيئًا قد يكون خطرًا على البشرية، يجب على العالم أن يعرف."
سوتسكيبر، الذي لعب دورًا كبيرًا في إقالة ألتمان، أعرب عن قلقه بشأن السرعة التي تتسارع بها commercialization لتكنولوجيا OpenAI. قبل أشهر، حققت المنظمة تقدمًا كبيرًا في تطوير نماذج ذكاء اصطناعي أكثر قوة، كما أفادت به "The Information". هذا التقدم أثار المخاوف لدى سوتسكيبر ومجلس إدارة المنظمة غير الربحية، الذين كانوا يشعرون أن الضمانات الحالية غير كافية لحماية المجتمع من تداعيات هذه النماذج المتقدمة. وفي رأيهم، كانت الحلول الوحيدة الممكنة هي عزل ألتمان، الذي اعتبر القوة الدافعة وراء هذه التCommercialization المتسارعة.
يسمى هذا التقدم، Q* (أو Q-star)، بأنه معلم تقني حاسم في تطوير الذكاء الاصطناعي. فقد مكن النماذج من حل مسائل رياضية أساسية لم تواجهها من قبل. بينما تقدم أنظمة الذكاء الاصطناعي الحالية نتائج متغيرة بناءً على المدخلات، فإن الرياضيات تعمل بإجابات صحيحة واحدة فقط. يشير هذا التقدم إلى أن الذكاء الاصطناعي قد يقترب من قدرات التفكير المنطقية المشابهة لتلك التي يمتلكها البشر، كما أشار إليه تقرير "رويترز".
تجلب هذه الإنجازات الذكاء الاصطناعي أقرب إلى تحقيق الذكاء الاصطناعي العام (AGI) — وهي حالة يمكن فيها للآلات التفكير بطريقة مماثلة للبشر. ومع ذلك، ظهرت انقسامات ضمن مجتمع الذكاء الاصطناعي. تحذر إحدى الفصائل البارزة، التي يمثلها "أب الذكاء الاصطناعي"، من أن AGI يشكل مخاطر وجودية على الإنسانية ما لم تكن مصاحبة بتنظيمات قوية.
على النقيض من ذلك، يعارض كبير علماء الذكاء الاصطناعي في ميتا، يان لوكون، بشدة هذه الفكرة. حيث رفض علنًا القلق حول Q* واعتبره "هراءً مطلقًا"، مؤكدًا أن العديد من مختبرات الذكاء الاصطناعي الرائدة—مثل FAIR، وDeepMind، وOpenAI—تستكشف مسارات مماثلة وقد شاركت بالفعل نتائج أبحاثها.
يعد لوكون صوتًا قويًا ضد الاعتقاد بأن AGI يمكن أن يؤدي إلى انهيار البشرية. حيث يجادل بأن وجود ذكاء فائق لا يعني بالضرورة أن الكيان سيستحوذ على من هم أقل ذكاءً. ويرسم لوكون نقاط تشابه مع الهياكل المؤسسية، مشيرًا إلى أن القادة غالبًا ما يديرون فرقًا أكثر قدرة عقلية من أنفسهم، مما يناقض الفكرة القائلة بأن الذكاء المتفوق يرتبط برغبة في السيطرة.
ويؤكد أيضًا أن الآلات تفتقر إلى الغرائز الاجتماعية ولا تمتلك طموحات للسيطرة على البشرية. "الذكاء ليس له علاقة برغبة الهيمنة"، كما جادل لوكون في مناقشة عبر الإنترنت مؤخرًا. بدلاً من ذلك، يتصور أن الذكاء الاصطناعي الفائق سيكون شركاء مفيدين يعززون قدرات البشر.
ملخصًا وجهة نظره حول AGI، اقترح لوكون النقاط التالية:
- من المؤكد أن الذكاء الاصطناعي الفائق سيظهر في المستقبل.
- ستكون هذه الأنظمة تحت السيطرة البشرية.
- لن تشكل تهديدًا للبشرية أو تسعى لإلحاق الضرر بنا.
- ستسهل تفاعلاتنا مع العالم الرقمي.
- وبالتالي، يجب أن تعمل كمنصات مفتوحة، مما يسمح بمساهمات مختلفة من المبدعين للتدريب والتطوير.
بينما تستمر المناقشات حول تداعيات تقدم الذكاء الاصطناعي، لا يزال النقاش حول المخاطر المحتملة والفرص المتفائلة ذو أهمية. إن المستقبل بين التكنولوجيا والذكاء البشري سيحدد في النهاية مسار دور الذكاء الاصطناعي في المجتمع.