أحد المصطلحات العامية الأكثر إثارة وعمليًا التي ظهرت من موقع Reddit هو "ELI5"، والذي يعني "اشرح لي كما لو كنت في الخامسة". يشجع هذا المصطلح الخبراء على تبسيط الأفكار المعقدة وكأنهم يشرحونها لطفل في الخامسة، مما يسهل على الجميع، بما في ذلك أولئك الذين ليس لديهم تعليم رسمي، فهم المفاهيم المعقدة.
تعتبر هذه الطريقة المباشرة مفيدة أيضًا لنماذج الذكاء الاصطناعي، لا سيما في معالجة مشكلة "الوضوح"، التي تشير إلى كيفية فهم أنظمة الذكاء الاصطناعي لنتائجها. اليوم، يكشف باحثو OpenAI عن تقدم كبير في هذا المجال من خلال ورقة علمية جديدة بعنوان "ألعاب الإثبات والتحقق تحسن وضوح مخرجات نماذج اللغة الكبيرة"، المتاحة على موقع الشركة وarXiv.org. تستكشف دراستهم خوارزمية جديدة تمكن نماذج اللغة الكبيرة، مثل GPT-4، من توضيح منطقها بشكل أكثر وضوحًا.
يعد بناء الثقة في أنظمة الذكاء الاصطناعي أمرًا حيويًا، خاصة مع استخداماتها في مجالات حساسة مثل الرعاية الصحية والقانون والجيش والبنية التحتية الحساسة، حيث يمكن أن تؤدي الأخطاء إلى عواقب خطيرة. حتى الشركات في مجالات أخرى قد تتردد في تبني الذكاء الاصطناعي بسبب المخاوف بشأن النتائج الخاطئة. تهدف أعمال OpenAI إلى توفير إطار عمل يمكن نماذج الذكاء الاصطناعي من شرح عمليات اتخاذ القرارات بوضوح، مما يعزز ثقة المستخدمين.
علق الباحث في OpenAI، يان هندريك كيرشنر، قائلاً: "هذه أبحاث جديدة انتهينا منها مؤخرًا، ونتطلع لمشاركة هذه الرؤى مع المجتمع لزيادة الوعي بمشكلة الوضوح وتعزيز التعاون نحو حلها".
فهم لعبة الإثبات والتحقق
تستند الخوارزمية التي طورها OpenAI إلى "لعبة الإثبات والتحقق"، وهي مفهوم تم تفصيله لأول مرة من قبل باحثين في جامعة تورنتو ومعهد فيكتور للذكاء الاصطناعي في عام 2021. تتضمن اللعبة نموذجين من الذكاء الاصطناعي: "مُثبِت" أكثر تقدمًا و"مُتحقق" أقل تطورًا. يهدف المثبت إلى إقناع المُتحقق بإجابته، بغض النظر عن صحتها، بينما يسعى المُتحقق إلى تحديد الإجابة الصحيحة.
الهدف هو تشجيع نماذج الذكاء الاصطناعي على "إظهار عملها" وشرح منطقها للمستخدمين البشر، مما يعزز طرق حل المشاكل القابلة للتحقق.
وأشار الباحث في OpenAI، يينينغ تشين، إلى أنه "مع تزايد نشر نماذج اللغة الكبيرة في مجالات معقدة وحساسة، يصبح ضمان ثقة مخرجاتها أمرًا ضروريًا. تعزز طريقة لعبة الإثبات والتحقق الوضوح وقابلية التحقق، وهما عنصران رئيسيان في الثقة".
تنفيذ لعبة الإثبات والتحقق
استخدم OpenAI نموذجين مخصصين من GPT-4 للمشاركة في سلسلة من الجولات لحل مسائل رياضية مستوى ابتدائي. كان من الجوانب الأساسية لمنهجيتهم تبديل سلوك نموذج المثبت بين كونه "مساعدًا" (يهدف إلى تقديم الإجابة الصحيحة) و"مخادعًا" (يحاول تضليل المُتحقق). كان نموذج المُتحقق، الذي لا يعرف نوايا المثبت، يقيم الإجابات بناءً فقط على تدريبه.
بعد كل جولة من اللعبة، تم إعادة تدريب كلا النموذجين بناءً على أدائهما السابق، مما عزز قدرتهما على تقييم الصحة وتوضيح الشروحات بطريقة سهلة الفهم. تم الاستعانة بمقاولين بشريين لتقييم وضوح إجابات نموذج المثبت.
بعد عدة جولات، لاحظ الباحثون أن نموذج المُتحقق قد حسن من مقاومته لتقنيات الإقناع الخاصة بالمثبت المخادع، بينما أصبح نموذج المثبت أكثر فعالية في شرح منطقته.
تلاحظ الورقة البحثية: "الحلول المخادعة التي يصعب على المُتحققين الأصغر كشفها هي أيضًا أكثر تحديًا للبشر، بينما الحلول المفيدة التي تكون أكثر وضوحًا للمتحققين الأصغر تكون مفهومة بشكل أفضل للبشر".
تعمل الخوارزمية الناتجة من هذه التجارب على تحسين نماذج اللغة الكبيرة من حيث الصحة والوضوح، مما يعتقد OpenAI أنه سيسهل تطوير أنظمة ذكاء اصطناعي تنتج مخرجات صحيحة وشفافة، وبالتالي يعزز الأمان والثقة في التطبيقات الواقعية.
كما أبرز تشين، فإن هذه الطريقة لديها potential لمحاذاة أنظمة الذكاء الاصطناعي الأكثر تقدمًا مع المُقيّمين البشريين، وهي خطوة حاسمة مع اقتراب النماذج من أو تجاوز ذكاء الإنسان. وأضاف كيرشنر: "عند تلك المرحلة، قد يصبح من الصعب بشكل متزايد على البشر الحكم بدقة على صحة المحتوى الذي ينتجه الذكاء الاصطناعي".