أنتروبك تكشف عن تنبيهات نظام الذكاء الاصطناعي، محققة إشادات للشفافية والابتكار

منافس شركة OpenAI، Anthropic، وضع معيارًا جديدًا للشفافية في صناعة الذكاء الاصطناعي التوليدي من خلال إطلاق سلسلة من التعليمات البرمجية الخاصة بنماذج AI من عائلة Claude. يرى المراقبون في الصناعة أن هذه الخطوة تدل على اتجاه ملحوظ نحو توضيح كيفية عمل أنظمة الذكاء الاصطناعي.

تعتبر التعليمات البرمجية بمثابة التعليمات التشغيلية للنماذج اللغوية الكبيرة، حيث تحدد الإرشادات العامة التي يجب أن تتبعها هذه النماذج أثناء التفاعل مع المستخدمين. كما تشير أيضاً إلى تاريخ انتهاء المعلومات المستخدمة في تدريب النموذج.

بينما تستخدم العديد من النماذج اللغوية الكبيرة التعليمات البرمجية، ليس جميع شركات الذكاء الاصطناعي تشارك هذه المعلومات علنًا، مما أدى إلى تزايد محاولات "اختراق" الذكاء الاصطناعي لكشفها. إلا أن Anthropic قد تفوقت على هذه الجهود مسبقًا من خلال نشر التعليمات التشغيلية لنماذجها Claude 3.5 Sonnet وClaude 3 Haiku وClaude 3 Opus على موقعها الإلكتروني في قسم ملاحظات الإصدار.

علاوةً على ذلك، تعهد ألكس ألبرت، رئيس علاقات المطورين في Anthropic، عبر منصة X (سابقًا تويتر) بإبقاء الجمهور على اطلاع حول التحديثات الخاصة بالتعليمات البرمجية لـ Claude، قائلًا: "سنسجل التغييرات التي نجريها على التعليمات البرمجية الافتراضية على Claude dot ai وتطبيقاتنا المحمولة."

أفكار من التعليمات البرمجية لـ Anthropic

تظهر التعليمات البرمجية لكل من Claude 3.5 Sonnet وClaude 3 Haiku وClaude 3 Opus معلومات قيمة حول قدرات كل نموذج وتواريخ انتهاء معرفتها وسماتها الشخصية الفريدة.

- Claude 3.5 Sonnet هو النموذج الأكثر تقدمًا، بقاعدة معرفية تم تحديثها حتى أبريل 2024. يتعامل بمهارة مع الأسئلة المعقدة ويعطي إجابات تفصيلية، بينما يقدم ردودًا مختصرة على الأسئلة البسيطة. يتعامل مع المواضيع المثيرة للجدل بحذر، مما يقدم المعلومات دون تصنيفها على أنها حساسة أو التظاهر بالحيادية. كما أنه يتجنب العبارات الغير ضرورية ولا يعترف بتعريف الوجوه في مدخلات الصور.

- Claude 3 Opus، المُحدث في أغسطس 2023، يتفوق في إدارة المهام المعقدة والكتابة. مثل Sonnet، يقدم إجابات مختصرة للاستفسارات الأساسية بينما يتيح ردودًا شاملة على الأسئلة المعقدة. يتناول المواضيع المثيرة للجدل من وجهات نظر متعددة، مبتعدًا عن التعميم وضمان وجهات نظر متوازنة. ومع ذلك، فإنه يفتقر لبعض الإرشادات السلوكية التفصيلية الموجودة في Sonnet، مثل تقليل الاعتذارات والتأكيدات.

- Claude 3 Haiku هو الأسرع في عائلة Claude، أيضًا مُحدث حتى أغسطس 2023. يفضل تقديم ردود سريعة ومختصرة للاستفسارات البسيطة وإجابات شاملة للمسائل الأكثر تعقيدًا. هيكل التعليمات لديه بسيط، يركز على السرعة والكفاءة دون التعمق في الفروق السلوكية المتقدمة الموجودة في Sonnet.

أهمية الشفافية في الذكاء الاصطناعي

أحد الانتقادات الرئيسية لأنظمة الذكاء الاصطناعي التوليدية هو ظاهرة "الصندوق الأسود"، التي تعيق فهم أسباب قرارات النموذج. وقد حفزت هذه المشكلة الأبحاث حول قابلية تفسير الذكاء الاصطناعي لتعزيز فهم كيفية توقع النماذج. عبر جعل التعليمات البرمجية متاحة للجمهور، تتخذ Anthropic خطوة نحو معالجة هذه الفجوة في الشفافية، مما يسمح للمستخدمين بفهم القواعد التي تحكم سلوك النماذج.

لقد تم استقبال إصدار Anthropic بشكل جيد من قبل مجتمع تطوير الذكاء الاصطناعي، مع التأكيد على الاتجاه نحو تحسين الشفافية بين شركات الذكاء الاصطناعي.

قيود على الانفتاح

على الرغم من إطلاق التعليمات البرمجية لنماذج Claude، إلا أن Anthropic لم تجعل النموذج بالكامل مفتوح المصدر. تظل الشيفرة المصدرية الحقيقية ومجموعات بيانات التدريب وأوزان النموذج ملكية خاصة بـ Anthropic. ومع ذلك، تُبرز هذه المبادرة طريقًا لشركات الذكاء الاصطناعي الأخرى لتعزيز الشفافية، مما يفيد المستخدمين عن طريق توضيح كيفية تصميم روبوتات الدردشة الخاصة بهم للعمل.

Most people like

Find AI tools in YBX