غوغل يقدم اعتذاراً عن الصور غير الدقيقة والم misleading التي أنتجها نظام Gemini AI: لقد أخطأنا الهدف

أصدرت شركة Google اعتذارًا يوم الجمعة عن الصور غير الدقيقة والتي قد تكون مسيئة التي أنتجتها أداة الذكاء الاصطناعي الجديدة لديها، Gemini. جاء هذا الرد بعد أن أبلغ المستخدمون أن Gemini قامت بإنشاء صور تاريخية غير دقيقة ومتنوعة عرقيًا لطلبات تتعلق بشخصيات مثل الجنود النازيين وآباء مؤسسي الولايات المتحدة.

في منشور على المدونة، اعترف نائب الرئيس الأول في Google، برابهاكار راغافان، بأن بعض الصور المنتجة كانت "غير دقيقة أو حتى مسيئة"، معترفًا بأن الشركة "أخطأت الهدف".

وأوضح راغافان أن Google كانت تهدف إلى القضاء على التحيز من خلال ضمان تمثيل واسع للأشخاص في الطلبات المفتوحة. ومع ذلك، شدد على أن الطلبات التي تتطلب سياقًا تاريخيًا محددًا يجب أن تنتج تمثيلات دقيقة.

"على سبيل المثال، إذا طلبت صورة للاعبي كرة القدم أو شخصًا يمشي مع كلب، فإن التنوع في الصور يكون مناسبًا. من المحتمل أنك لا ترغب في الحصول على صور من عرق واحد فقط"، كما أوضح. "على العكس، إذا كنت تطلب صورًا لأفراد معينين أو مجموعات في سياقات تاريخية معينة، يجب أن تعكس الاستجابة طلبك بدقة."

تحديات التحيز والتنويع في الذكاء الاصطناعي

تسلط هذه الحادثة الضوء على التحديات المستمرة للتحيز في أنظمة الذكاء الاصطناعي، التي يمكن أن تعزز الصور النمطية بشكل غير مقصود. واجهت أدوات ذكاء اصطناعي أخرى انتقادات مماثلة بسبب نقص التنوع أو التمثيلات غير الملائمة. يبدو أن Google، في سعيها من أجل الشمولية، قد انتقلت إلى الجانب الآخر، مما أدى إلى إنتاج صور تاريخية غير مناسبة، مثل أعضاء مجلس الشيوخ الأمريكي المتنوعين عرقيًا من القرن التاسع عشر والجنود النازيين من أعراق متعددة، مما أدى إلى سخرية وانتقادات من مختلف الآراء بسبب الإفراط في التوجه السياسي الصحيح.

ردًا على هذه المخاوف، أوقفت Google مؤقتًا قدرة Gemini على إنتاج صور للأشخاص، وأعلنت أنها ستحسن هذه الميزة قبل إعادة إطلاقها.

الدلالات الأعمق للجدل حول Gemini

تعكس أزمة Gemini القضايا الأوسع في مبادرات Google المتعلقة بالذكاء الاصطناعي. بعد الإطلاق الأخير، واجهت الشركة انتقادات سلبية ليس فقط بسبب الجدل حول الصور، ولكن أيضًا بسبب فيديو ترويجي بالغ في تقدير قدرات Gemini والانتقادات السابقة لنسخة الذكاء الاصطناعي، Google Bard.

بينما تتقدم الشركات المنافسة مثل Microsoft وOpenAI، تكافح Google لتحديد رؤيتها لعصر "Gemini". وقد تركت وتيرة إطلاق منتجات الذكاء الاصطناعي السريعة والتجديدات—من Bard إلى Gemini—المستهلكين في حالة من الحيرة.

تسلط هذه الإخفاقات الضوء على التحدي المتمثل في التوفيق بين الدقة التاريخية والتنوع. كما تكشف عن نقاط ضعف أساسية في استراتيجية Google. بعدما كانت رائدة في تكنولوجيا البحث، تواجه Google الآن صعوبات في تقديم حلول ذكاء اصطناعي متماسكة.

ترجع التحديات جزئيًا إلى الثقافة التقنية السائدة المتمثلة في "الحركة السريعة وكسر الأشياء". قامت Google بإطلاق Gemini وإصداراته بسرعة للتنافس مع أدوات مثل ChatGPT، ولكن هذه المقاربة المتسرعة لم تؤد إلا إلى تآكل ثقة المستهلكين. لاستعادة المصداقية، تحتاج Google إلى خارطة طريق مدروسة للذكاء الاصطناعي بدلاً من إطلاق منتجات مبتكرة إضافية.

علاوة على ذلك، تثير الحادثة الأخيرة تساؤلات حول عمليات تطوير الذكاء الاصطناعي الداخلية في Google. تشير التقارير السابقة إلى أن الجهود المبذولة لدمج الاعتبارات الأخلاقية في الذكاء الاصطناعي قد تراوحت في مستوى التقدم. يجب على Google أن تعطي الأولوية لإنشاء فرق ذكاء اصطناعي شاملة ومتنوعة، يقودها قادة يركزون على نشر التكنولوجيا بشكل آمن ومسؤول، وليس مجرد سريع.

إذا لم تتعلم Google من هذه الأخطاء المبكرة في مجال الذكاء الاصطناعي، فهي تخاطر بالتراجع أكثر. يتطلع المستخدمون إلى الوضوح بدلاً من الارتباك. توضح حادثة Gemini أن Google فقدت السيطرة على كل من مخرجات الذكاء الاصطناعي ورسالتها. قد يكون العودة إلى المبادئ الأساسية أمرًا ضروريًا لاستعادة ثقة الجمهور في مستقبل Google في الذكاء الاصطناعي.

Most people like

Find AI tools in YBX

Related Articles
Refresh Articles