انتقد رئيس قسم الذكاء الاصطناعي في ميتا، يان لوكون، بشدة قادة الذكاء الاصطناعي البارزين الذين يدعون إلى تنظيم القطاع خوفًا من أن يشكل الذكاء الاصطناعي تهديدًا وجوديًا للبشرية، خاصة مع اقتراب قمة الذكاء الاصطناعي العالمية الأولى في المملكة المتحدة هذا الأسبوع. في منشور له على "X" (سابقًا تويتر)، وصف لوكون هذه السيناريوهات الكارثية بأنها غير مبررة. قال: "المخاوف من يوم القيامة التي تروجون لها سخيفة. أنظمة الذكاء الاصطناعي القوية التي تُوجه بأهداف محددة — مع توفير الحواجز المناسبة — آمنة وقابلة للتحكم لأننا نحدد تلك المعايير".
أشار لوكون إلى أن نماذج اللغة التلقائية الحالية تفتقر إلى هذه الأهداف التوجيهية، محذرًا من استنتاج قيودها الحالية على أنظمة الذكاء الاصطناعي المستقبلية. كما اتهم قادة ثلاث شركات كبرى في مجال الذكاء الاصطناعي — سام التمان من أوبن أي آي، وديماس هاسابيس من جوجل ديبمايند، وداریو أمودي من أنثروبيك — بالتآمر للحفاظ على نماذج ذكاء اصطناعي مغلقة، مشددًا على أن "التمان وهاسابيس وأمودي يتصدرون اللوبيات المكثفة التي تهدف إلى السيطرة على أطر التنظيم داخل صناعة الذكاء الاصطناعي".
وانتقد زملاءه من الفائزين بجائزة تورينغ، حيث تحدى أستاذ MIT ماكس تيغمارك إلى جانب جيف هينتون ويوشوا بنجيو، مؤكدًا أنهم يقدمون عن غير قصد ذخيرة لمن يدفعون نحو فرض قيود على البحث والتطوير في الذكاء الاصطناعي المفتوح. يدعو لوكون إلى البحث المفتوح كوسيلة محورية لتعميم الوصول للتكنولوجيا، مشددًا على أن استراتيجيات ميتا تركز على المبادرات مفتوحة المصدر، مثل نموذج اللغة الكبير الرائد، لاما 2.
على الرغم من مخاوف الحكومة الأمريكية من أن الذكاء الاصطناعي مفتوح المصدر قد يعزز من قدرات الجهات الخبيثة، يؤكد لوكون أن تقييد الوصول إلى نماذج الذكاء الاصطناعي يعد طعنًا في الإنتاجية. ويقول: "إذا نجحت حملات الخوف التي تقودونها، ستؤدي حتمًا إلى كارثة: تحكم مركّز للذكاء الاصطناعي بيد عدد قليل من الشركات. تدعم الغالبية العظمى من زملائنا الأكاديميين البحث المفتوح في الذكاء الاصطناعي، وقلة قليلة فقط تؤيد سيناريوهات يوم القيامة التي قدمتموها".
يجادل لوكون بأن المنصات المفتوحة للذكاء الاصطناعي يجب أن تكون القاعدة لتشجيع المساهمات المتنوعة والمشاركة الديمقراطية في هذا المجال. ويقول: "في مستقبل يتجسد فيه الذكاء الاصطناعي المعرفة والثقافة الإنسانية المشتركة، من الضروري أن تظل المنصات مفتوحة المصدر ومتاحة. فهذه الانفتاحية حيوية لضمان عكس هذه المنصات لكافة التجارب والأفكار البشرية". ويضيف: "يجب أن تكون المساهمات من مصادر جماعية، على غرار ويكيبيديا، وهو ما لا يمكن تحقيقه بدون المنصات المفتوحة".
وحذر من أن التنظيمات الصارمة قد تخنق الذكاء الاصطناعي مفتوح المصدر، مما يؤدي إلى احتكار المنصات من قبل عدد قليل من الشركات في الساحل الغربي الأمريكي والصين. وسأل: "ما هي التداعيات التي سيكون لذلك على الديمقراطية والتنوع الثقافي؟ هذا هو ما يثير قلقي حقًا".
تأتي تعليقات لوكون النقدية في وقت تسلط فيه التقارير الضوء على أن القمة المرتقبة في المملكة المتحدة ستركز بشكل أساسي على المخاطر التي يسببها الذكاء الاصطناعي. وردًا على هذه المخاوف، علق بشكل ساخر على تويتر حول رئيس الوزراء البريطاني الذي يعاني من "مرض وهم المخاطر الوجودية الناجمة عن الذكاء الاصطناعي (EFRAID)"، معبرًا عن أمله في ألا ينتقل هذا للزعماء الآخرين. على الرغم من تلقيه دعوة لحضور القمة، أثار حديثه نقاشًا مع تيغمارك وأشعل مزيدًا من البحث في الموضوع.
هذا النقاش تصاعد بعد تحذير هينتون، الذي يُلقب غالبًا بـ "الأب الروحي للذكاء الاصطناعي"، في 27 أكتوبر عن خطط الشركات لتطوير نماذج تستفيد من قوة حسابية أكبر بشكل متسارع، مما أثار القلق بشأن غياب التنظيمات التي تحكم قدراتها. رد لوكون على ادعاء هينتون، مشددًا على أنه إذا اتبعت أنظمة الذكاء الاصطناعي المستقبلية الأنظمة الهندسية الحالية، فقد تحقق مستويات عالية من المعرفة لكنها ستظل تفتقر إلى القدرة على التفكير، والإبداع، وفهم العالم المادي.
وقال: "يجب أن تعتمد الأنظمة المستقبلية هياكل مبتكرة تمكنها من التفكير، والتخطيط، والعمل ضمن أهداف وحواجز محددة." وأكد: "ستضمن هذه الأطر المدفوعة بالهدف السلامة والسيطرة، حيث نحدد أهدافها، مما يمنع أي نية شاملة للسيطرة." وأعرب عن معارضته القوية لفكرة أن الأنظمة المتقدمة للذكاء الاصطناعي ستسعى حتمًا للتفوق على البشرية، مشيرًا إلى أن مثل هذه المعتقدات غير صحيحة جوهريًا.