في ظل تصاعد المخاوف بشأن سلامة أنظمة الذكاء الاصطناعي المتقدم، أعلن سام ألتمان، الرئيس التنفيذي لشركة OpenAI، أن النموذج الرئيسي القادم للذكاء الاصطناعي التوليدي سيخضع لعمليات تدقيق للسلامة بالتعاون مع الحكومة الأمريكية قبل إطلاقه.
في منشور على منصة X، أشار ألتمان إلى أن OpenAI تعمل مع معهد سلامة الذكاء الاصطناعي الأمريكي، وهو جهة حكومية، على اتفاق يسمح بالوصول المبكر إلى نموذجها الأساسي الجديد. تهدف هذه الشراكة إلى تعزيز علم تقييم الذكاء الاصطناعي وضمان تنفيذ تدابير أمان قوية.
التزام OpenAI بالسلامة
أكد ألتمان أن OpenAI قامت بمراجعة سياساتها المتعلقة بعدم الإضرار بالسمعة، مما يتيح للموظفين الحاليين والسابقين التعبير بحرية عن المخاوف بشأن ممارسات الشركة. كما تعهدت الشركة بتخصيص 20% على الأقل من مواردها الحاسوبية لأبحاث السلامة.
مخاوف من السيناتورات الأمريكيين
مع ظهور OpenAI كقائد في صناعة الذكاء الاصطناعي من خلال منتجات مثل ChatGPT وSearchGPT، أثار استراتيجيتها السريعة في التطوير جدلاً. وقد اتهم النقاد، بمن فيهم قادة السلامة السابقون، الشركة بإهمال السلامة لصالح التقدم السريع.
رداً على هذه المخاوف، كتب خمسة سيناتورات أمريكيين مؤخراً إلى ألتمان، مستفسرين عن التزام OpenAI بالسلامة وتناول الادعاءات المتعلقة بالانتقام من الموظفين السابقين الذين أعربوا عن قلقهم من خلال اتفاق عدم الإضرار بالسمعة. أعرب السيناتورات عن أن المخاوف المستمرة بشأن السلامة تبدو متعارضة مع التزام OpenAI المعلن بتطوير الذكاء الاصطناعي بشكل مسؤول.
ردود قيادة OpenAI
وفقاً لبلومبرغ، رد جيسون كوان، كبير المسؤولين الاستراتيجيين في OpenAI، مؤكداً على مهمة الشركة في تطوير ذكاء اصطناعي يتماشى مع مصالح الإنسانية. وشدد على التزام OpenAI بتطبيق تدابير سلامة صارمة عبر عملياتها والحفاظ على الشفافية مع الموظفين.
كما أكد كوان خطط تخصيص 20% من طاقة الحوسبة لأبحاث السلامة وإلغاء بنود عدم الإضرار بالسمعة لتعزيز الحوار المفتوح، والعمل مع معهد سلامة الذكاء الاصطناعي على إطلاق نماذج آمنة.
عبر ألتمان عن هذا الالتزام أيضاً على منصة X، لكنه لم يكشف عن تفاصيل محددة بشأن التعاون مع معهد سلامة الذكاء الاصطناعي.
التعاون من أجل ذكاء اصطناعي أكثر أماناً
تم تأسيس معهد سلامة الذكاء الاصطناعي، الذي ينتمي إلى المعهد الوطني للمعايير والتكنولوجيا (NIST)، خلال قمة سلامة الذكاء الاصطناعي في المملكة المتحدة، لمواجهة المخاطر المحتملة المرتبطة بالذكاء الاصطناعي المتقدم، بما في ذلك مخاوف الأمن القومي والسلامة العامة. ويتعاون المعهد مع أكثر من 100 شركة تقنية، بما في ذلك Meta وApple وAmazon وGoogle وOpenAI، لتعزيز السلامة في تطوير الذكاء الاصطناعي.
من المهم أن نلاحظ أن OpenAI لا تتعاون فقط مع الحكومة الأمريكية، بل أبرمت أيضاً اتفاقية مراجعة سلامة مماثلة مع الحكومة البريطانية.
تصاعد المخاوف بشأن السلامة
تزايدت المخاوف بشأن السلامة في مايو، عندما استقال إيليا سوتسكيڨر ويان ليكي، قادة فريق التنسيق السوبر في OpenAI المخصص لتطوير أنظمة السلامة للذكاء الاصطناعي السوبر الذكي، بشكل مفاجئ. وانتقد ليكي الشركة بشكل علني لتفضيلها المنتجات اللامعة على تدابير السلامة الأساسية.
بعد مغادرتهم، أفادت التقارير بحل فريق التنسيق السوبر. رغم هذه النكسات، استمرت OpenAI في إطلاق منتجاتها بينما عززت التزامها بالسلامة من خلال الأبحاث الداخلية وتشكيل لجنة جديدة للسلامة والأمن، ترأسها بريت تايلور (رئيس مجلس إدارة OpenAI)، وتضم أعضاء بارزين مثل آدم دانجيلو (الرئيس التنفيذي لQuora) ونيكول سيليغمان (المديرة العامة السابقة لشركة سوني) وسام ألتمان.
من خلال هذه الجهود، تهدف OpenAI إلى معالجة المخاوف الحيوية بشأن سلامة تقنيات الذكاء الاصطناعي المتقدمة، سعياً لتحقيق توازن بين الابتكار والتنمية المسؤولة.