في السنوات الأخيرة، أدى التقدم السريع في تقنيات الذكاء الاصطناعي إلى انفجار في المحتوى الذي ينتجه الذكاء الاصطناعي، بما في ذلك الصور والفيديوهات والنصوص الواقعية بشكل مفرط. ولكن، أثار هذا الارتفاع أيضًا مخاوف كبيرة بشأن المعلومات المضللة والخداع، مما يجعل من الصعب علينا التمييز بين الواقع والخيال.
إن القلق من اكتظاظ المحتوى الاصطناعي لدينا يبرره الواقع، حيث أن مستخدمي الذكاء الاصطناعي أنشأوا منذ عام 2022 أكثر من 15 مليار صورة. ولتقديم السياق، تعكس هذه الرقم الهائل ما استغرقه البشر 150 عامًا لإنتاجه قبل عام 2022.
تقدم الكمية الهائلة من المحتوى الناتج عن الذكاء الاصطناعي تحديات نحن فقط في بداية فهمها. قد يحتاج المؤرخون قريبًا إلى اعتبار الإنترنت بعد عام 2023 مختلفًا جوهريًا عما قبله، تمامًا مثلما أثر تطوير القنبلة الذرية على مجال تأريخ الكربون المشع. بشكل متزايد، تؤدي عمليات البحث في صور جوجل إلى نتائج تم إنشاؤها عبر الذكاء الاصطناعي، وتُصنف حالات الجرائم الحربية المزعومة في صراع إسرائيل/غزة بشكل خاطئ كإبداعات ذكاء اصطناعي، بينما ليست الحالة كذلك.
تضمين التواقيع في المحتوى الناتج عن الذكاء الاصطناعي
تنتج التقنيات المتقدمة مثل الـديب فيك المحتوى المزيف الذي يحاكي تعبيرات البشر وأصواتهم. تسلط الإصدارات الجديدة لنموذج سُورا من OpenAI الضوء على مدى السرعة التي يصبح بها الواقع الافتراضي غير قابل للتميز عن الواقع الفعلي. على ضوء المخاوف المتزايدة، تتخذ الشركات الكبرى خطوات للحد من الاستخدام غير المناسب للمحتوى الناتج عن الذكاء الاصطناعي.
في فبراير، قدمت شركة ميتا مبادرات لوضع علامات على الصور المولدة عبر أدوات الذكاء الاصطناعي على منصات مثل فيسبوك وإنستغرام وثريدز. تشمل هذه المبادرات علامات ظاهرة، علامات مائية غير مرئية، وبيانات وصفية تفصيلية تشير إلى أصولها الاصطناعية. تبعتها جوجل وOpenAI بالإعلان عن تدابير مماثلة لتضمين "تواقيع" في المحتوى الناتج عن الذكاء الاصطناعي.
تدعم هذه المبادرات التحالف من أجل أصول المحتوى وموثوقيته (C2PA)، الذي يهدف إلى تتبع أصول الملفات الرقمية والتفريق بين المحتوى الحقيقي والمُعدل. وعلى الرغم من أن هذه الجهود تعزز الشفافية والمساءلة في إنشاء المحتوى، يبقى السؤال: هل هي كافية لحماية من الاستخدام غير المناسب لهذه التقنية المتطورة؟
من يحدد ما هو حقيقي؟
تثار قضية حاسمة مع تنفيذ أدوات الكشف: هل يمكن أن تكون فعالة بشكل عالمي دون استغلالها من قبل من لديهم القدرة على الوصول إليها؟ وهذا يقود إلى سؤال ملح: من لديه السلطة لتعريف الواقع؟ فهم ذلك ضروري قبل أن نستطيع معالجة الإمكانيات المحتملة للمحتوى الناتج عن الذكاء الاصطناعي بشكل حقيقي.
تكشف بارومتر ثقة إدلمان 2023 عن شكوك عامة كبيرة بشأن إدارة المؤسسات للتطورات التكنولوجية. تشير التقارير العالمية إلى أن الناس يميلون إلى الاعتقاد بأن الابتكار يُدار بشكل سيء بنسبة تتجاوز الضعف (39%) مقارنةً بإدارته بشكل جيد (22%). يعبر العديد عن مخاوفهم بشأن سرعة التغير التكنولوجي وتداعياته على المجتمع.
تتفاقم هذه الشكوك بالملاحظة التي تفيد بأنه مع تحسن التدابير المضادة، تتطور أيضًا التحديات التي تهدف إلى معالجتها. إن استعادة ثقة الجمهور في الابتكار التكنولوجي أمر حاسم إذا أردنا أن تكون تدابير العلامات المائية فعالة.
كما رأينا، إن تحقيق هذه الثقة ليس بالأمر السهل. على سبيل المثال، تعرضت جوجل جيميني لانتقادات بسبب التحيز في توليد الصور، مما أدى إلى إحراج داخل الشركة. توضح الاعتذارات اللاحقة التأثير الدائم لمثل هذه الحوادث على تصور الجمهور.
التحول نحو الشفافية في التكنولوجيا
مؤخراً، انتشر مقطع فيديو يظهر Mira Murati، المديرة التقنية في OpenAI، بعد عجزها عن تحديد البيانات المستخدمة لتدريب سُورا. نظرًا لأهمية جودة البيانات، فإن من المقلق أن تتعذر على مديرة تقنية تقديم توضيح بشأن بيانات التدريب. إن تجاهلها للأسئلة اللاحقة أثار مزيدًا من علامات التحذير، مما يشير إلى أن الشفافية يجب أن تكون أولوية في صناعة التكنولوجيا.
المضي قدمًا يتطلب وضع معايير للشفافية والتناسق. إن التعليم العام حول أدوات الذكاء الاصطناعي، وممارسات التوصيف الواضحة، والمساءلة عن الأخطاء هي جميعها عناصر حاسمة لبناء بيئة موثوقة. التواصل بشأن القضايا الناشئة هو أيضًا أمر أساسي.
بدون هذه التدابير، قد تكون العلامات المائية مجرد حل سطحي، غير قادر على معالجة التحديات الأساسية للمعلومات المضللة وتراجع الثقة في المحتوى الاصطناعي. كما رأينا في الأحداث الجارية، يظهر تدخل الانتخابات بواسطة التزييف العميق كمسألة هامة في عالم الذكاء الاصطناعي. مع توجه جزء كبير من السكان العالميين إلى صناديق الاقتراع، فإن معالجة هذه المشكلة أمر بالغ الأهمية لمستقبل مصداقية المحتوى.