أطلقت OpenAI مؤخرًا أداة متخصصة لكشف الذكاء الاصطناعي قادرة على تحديد ما إذا كانت الصور قد تم إنشاؤها بواسطة نموذج DALL·E 3 بدقة مذهلة بلغت 98%. تمثل هذه الإصدارة تقدمًا كبيرًا في جهود OpenAI لضمان أصالة المحتوى وشهادة المحتوى الرقمي.
تم تصميم الأداة لمساعدة الباحثين في تتبع الأصول الحقيقية للمحتوى وتحديد الصور التي تم إنشاؤها بالذكاء الاصطناعي. تلتزم OpenAI بتطوير تقنيات متقدمة تدعم صناع المحتوى والباحثين، وتعزز الشفافية والموثوقية في تطبيقات الذكاء الاصطناعي.
بالإضافة إلى ذلك، انضمت OpenAI إلى المجلس الاستشاري لمنظمة C2PA (التحالف من أجل أصالة المحتوى)، وهي معيار معتمد على نطاق واسع لشهادات المحتوى الرقمي يجمع بين شركات البرمجيات، ومصنعي الكاميرات، والمنصات عبر الإنترنت. ستتيح هذه التعاون لـ OpenAI العمل جنبًا إلى جنب مع رواد الصناعة لتعزيز تطوير معايير اعتماد المحتوى الرقمي، مما يزيد من الشفافية بشأن أصول المحتوى.
جدير بالذكر أن OpenAI قامت بتضمين بيانات C2PA الوصفية في جميع الصور التي تم إنشاؤها وتحريرها عبر ChatGPT وOpenAI API. هذه التكامل يعزز من شفافية مصادر الصور، مما يوفر للباحثين والمستخدمين معلومات أكثر موثوقية.
في اختبارات داخلية، أظهرت الأداة الجديدة أداءً استثنائيًا، حيث تمكنت من تمييز الصور التي تم إنشاؤها بواسطة DALL·E 3 عن تلك التي أنشئت دون استخدام الذكاء الاصطناعي بدقة تقارب 98%. أقل من 0.5% من الصور غير المولدة بالذكاء الاصطناعي تم تصنيفها بشكل خاطئ على أنها من إبداعات DALL·E 3. تُظهر هذه الدقة العالية خبرة OpenAI التكنولوجية في التعرف على الصور بفضل الذكاء الاصطناعي، وتمهد الطريق لتطورات مستقبلية في أبحاث أصالة المحتوى وشهادات المحتوى الرقمي.
مع تطور تكنولوجيا الذكاء الاصطناعي بسرعة، يصبح ضمان أصالة وموثوقية المحتوى الرقمي أمرًا بالغ الأهمية. توفر أداة كشف الذكاء الاصطناعي من OpenAI حلاً تقنيًا قيمًا لمواجهة هذا التحدي. نحن نتطلع إلى الابتكارات المستقبلية التي ستعزز من بيئة صحية لمحتوى رقمي.