تجددت النقاشات المهمة حول التطوير والاستخدام المسؤول لتكنولوجيا الذكاء الاصطناعي بعد العناوين الأخيرة، مثل توصية الذكاء الاصطناعي للناس بتناول الصخور وإطلاق "ملكة جمال الذكاء الاصطناعي"، أول مسابقة جمال تضم متسابقين تم إنشاؤهم بواسطة الذكاء الاصطناعي. بينما تسلط توصية الصخور الضوء على خلل في خوارزميات الذكاء الاصطناعي، تعكس مسابقة الجمال ميل البشرية لإرساء معايير جمال ضيقة. وسط تحذيرات مستمرة من الكوارث المحتملة الناجمة عن الذكاء الاصطناعي—حيث قدر أحد الباحثين في مجال الذكاء الاصطناعي احتمال الكارثة بنحو 70%—تظل هذه المسائل بارزة لكنها لا تقترح تغييرًا في المسار الحالي.
توضح أمثلة صارخة على سوء استخدام الذكاء الاصطناعي، مثل استخدام الصور العميقة في عمليات الاحتيال المالي أو التصوير غير المناسب للأفراد، قدرة التكنولوجيا على إحداث ضرر. ومع ذلك، فإن هذه الأفعال مدفوعة بالخبث البشري بدلاً من استقلالية الذكاء الاصطناعي. علاوة على ذلك، لم تتحقق المخاوف من أن الذكاء الاصطناعي قد يتسبب في فقدان الوظائف بشكل ملحوظ بعد.
تشمل مخاطر الذكاء الاصطناعي إمكانية تسليح التكنولوجيا، التحيزات الاجتماعية الموروثة، انتهاكات الخصوصية، والصعوبة المستمرة في فهم أنظمة الذكاء الاصطناعي. ومع ذلك، هناك القليل من الأدلة التي تشير إلى أن الذكاء الاصطناعي يشكل تهديدًا فوريًا للبشرية.
رغم عدم وجود أدلة قاطعة، أصدرت 13 من الموظفين الحاليين والسابقين من شركات الذكاء الاصطناعي الرائدة مؤخرًا رسالة للإبلاغ عن المخاطر الكبيرة للتكنولوجيا، بما في ذلك تهديدات لحياة البشر. يعزز هؤلاء المبلغون، الذين عملوا عن كثب مع أنظمة الذكاء الاصطناعي المتقدمة، مصداقية مخاوفهم. وأثارت التحذيرات السابقة من الباحث في الذكاء الاصطناعي إليزر يودكوفسكي القلق من أن الذكاء الاصطناعي، مثل ChatGPT، قد يتطور لتجاوز الذكاء البشري ويشكل خطرًا على الإنسانية.
ومع ذلك، كما أشار كيسي نيوتن في Platformer، قد يشعر من يسعون وراء اكتشافات مثيرة في رسالة المبلغين بالخيبة. قد يكون ذلك نتيجة للقيود المفروضة من قبل أصحاب العمل أو نقص الأدلة القوية خارج السرديات الافتراضية.
على الجانب الإيجابي، تتطور نماذج الذكاء الاصطناعي "الحدودية" باستمرار، كما يتضح من أدائها في معايير الاختبار الموحدة. ومع ذلك، يمكن أن تؤدي حالات "التكيف المفرط"—عندما تتفوق النماذج فقط على بيانات التدريب—إلى تضخيم هذه المطالبات، كما يتضح من تقييم مضلل للأداء في امتحان المحاماة الموحد.
رغم المخاوف، يعتقد العديد من الباحثين الرائدين في الذكاء الاصطناعي—بما في ذلك جيفري هينتون، المعروف غالبًا بلقب "أب الذكاء الاصطناعي"—أن الذكاء الاصطناعي العام (AGI) قد يتحقق في غضون خمس سنوات. يمثل AGI نظامًا ذكاء اصطناعيًا قادرًا على المضاهاة أو تجاوز الذكاء البشري في مجموعة واسعة من المهام—النقطة التي قد تنشأ عندها المخاوف الوجودية. يعزز تغيير وجهة نظر هينتون مؤخرًا، الذي كان يعتبر AGI واقعًا بعيدًا، من إلحاح النقاش.
يضيف إلى هذه السردية، ليوبولد أشينبرنر، باحث سابق في OpenAI تم الاستغناء عنه مؤخرًا بتهمة تسريبات، الذي نشر توقعات تشير إلى أن AGI قد يتحقق بحلول 2027، شريطة استمرار التقدم المستمر.
بينما يبقى بعض الخبراء متشككين بشأن اقتراب وصول AGI، من المتوقع أن تحقق النماذج القادمة—مثل GPT-5 من OpenAI والنسخ التالية من Claude وGemini—تقدمًا كبيرًا. ومع ذلك، إذا توقف النمو التكنولوجي في المستقبل، فقد تتلاشى المخاوف الوجودية في النهاية.
أثار الخبراء القلقون، مثل غاري ماركوس، الشكوك حول قابلية توسيع نماذج الذكاء الاصطناعي، مقترحين أن علامات مبكرة على شتاء جديد للذكاء الاصطناعي قد تظهر. تتبع شتاءات الذكاء الاصطناعي، وهي فترات تاريخية تتميز بتقلص الاهتمام والتمويل بسبب توقعات غير محققة، غالبًا مراحل من الضجة المبالغ فيها حول قدرات الذكاء الاصطناعي.
تكشف تقارير حديثة، مثل التي أصدرتها Pitchbook، عن انخفاض كبير في صفقات الذكاء الاصطناعي التوليدي، حيث تراجعت بنسبة 76% عن ذروتها في الربع الثالث من 2023، إذ يقوم المستثمرون بإعادة تقييم استراتيجياتهم. قد يؤدي هذا الانخفاض في الاستثمارات إلى صعوبات مالية للشركات الحالية ويعيق الابتكار في مشاريع الذكاء الاصطناعي الناشئة. ومع ذلك، قد تظل الشركات الكبرى المعنية بتطوير نماذج متطورة محصنة من هذه الاتجاهات.
زيادةً على ذلك، أكدت Fast Company عدم وجود أدلة تشير إلى أن الذكاء الاصطناعي يحقق زيادة كافية في الإنتاجية تؤثر إيجابيًا على أرباح الشركات أو أسعار الأسهم. ومن ثم، قد يهيمن التهديد الوشيك لشتاء جديد للذكاء الاصطناعي على النقاشات في النصف الثاني من 2024.
رغم هذه التحديات، يبقى العديد من الخبراء متفائلين. يقارن غارتنر تأثير الذكاء الاصطناعي بالاختراعات التحويلية مثل الطباعة والكهرباء، مؤكدًا على إمكانيته في إعادة تشكيل المجتمع. يدعو إيثان مولك، أستاذ بمدرسة وارتن للأعمال، إلى دمج الذكاء الاصطناعي التوليدي بشكل فوري في عمليات العمل.
تتزايد الأدلة على قدرات الذكاء الاصطناعي التوليدي؛ على سبيل المثال، تشير التقارير إلى أن أنظمة الذكاء الاصطناعي أكثر فعالية بنسبة 87% في إقناع الأفراد خلال المناظرات مقارنة بالبشر العاديين. بالإضافة إلى ذلك، تشير الدراسات إلى أن نماذج الذكاء الاصطناعي قد تتفوق على البشر في تقديم الدعم العاطفي من خلال تقنيات مثل إعادة التقييم المعرفي.
السؤال المركزي يبقى: هل سيساعد الذكاء الاصطناعي في حل التحديات العالمية الكبرى، أم أنه قد يؤدي في النهاية إلى انهيار الإنسانية؟ من المحتمل أن يقدم الناتج مزيجًا من التقدم المذهل والانحدارات المؤسفة المرتبطة بالذكاء الاصطناعي المتقدم. نظرًا للطبيعة المنقسمة للتقدم التكنولوجي، حتى القادة في الصناعة يعبرون عن آراء متباينة حول مخاطر ومكافآت الذكاء الاصطناعي.
شخصيًا، أعتقد أن احتمالية يوم القيامة منخفضة—حوالي 5%—بعد تقييم التقدم الأخير في سلامة الذكاء الاصطناعي. يمكن أن تعزز الخطوات المبشرة التي اتخذتها منظمات مثل Anthropic في توضيح كيفية عمل النماذج اللغوية الكبيرة قدرتنا على التخفيف الفعال من المخاطر.
في نهاية المطاف، يقف مستقبل الذكاء الاصطناعي عند مفترق طرق، حيث يوازن بين الفرص غير المسبوقة ضد المخاطر الملحوظة. يبقى الانخراط في نقاشات مستنيرة، وضمان التطوير الأخلاقي، وتنفيذ إشراف استباقي أمرًا أساسيًا لتعظيم الفوائد المجتمعية للذكاء الاصطناعي. بينما توجد إمكانية لمستقبل يتسم بالوفرة، هناك أيضًا خطر الانزلاق نحو الفوضى. يجب أن prioritize تطوير الذكاء الاصطناعي المسؤول الإرشادات الأخلاقية الواضحة، بروتوكولات السلامة الصارمة، الإشراف البشري، وآليات السيطرة القوية لتوجيه هذه البيئة المتطورة بسرعة.