تايلور سويفت تنضم إلى قائمة ضحايا الذكاء الاصطناعي: فهم معضلة الديب فيك

عندما انتشرت مقاطع عميقة تمثل تايلور سويفت بشكل جنسي صريح على منصة X (سابقًا تويتر)، اجتمع الملايين من معجبيها تحت هاشتاغ #احمواتايلورسويفت. رغم أن جهودهم ساعدت في تقليل المحتوى المسيء، إلا أن الحادث جذب اهتمام وسائل الإعلام بشكل واسع، مما أثار حوارًا كبيرًا حول مخاطر تكنولوجيا الديب فيك. حتى أن المتحدثة باسم البيت الأبيض، كارين جان-بيير، طالبت باتخاذ تدابير تشريعية لحماية الأفراد من المحتوى الضار الناتج عن الذكاء الاصطناعي.

بينما كانت حادثة سويفت صادمة، إلا أنها ليست حالة معزولة. في السنوات الأخيرة، تزايدت حالات تعرض المشاهير والمؤثرين لمحتوى الديب فيك، ومع تطور تكنولوجيا الذكاء الاصطناعي، فإن احتمالية الإضرار بالسمعة تتزايد بشكل متوقع.

وكالات الذكاء الاصطناعي وظهور الديب فيك

"يمكنك، من خلال مقطع فيديو قصير لنفسك، إنشاء مقطع جديد يتضمن حوارًا بناءً على نص معين. ورغم أن هذا قد يكون ممتعًا، فإنه يعني أيضًا أن أي شخص يمكنه إنتاج محتوى مضلل، مما يعرضه لخطر إلحاق الضرر بسمعته"، شرح نيكوس فيكياريديس، الرئيس التنفيذي لشركة أتيستيف، المتخصصة في أدوات التحقق من الصور ومقاطع الفيديو.

مع زيادة سهولة الوصول إلى أدوات إنشاء محتوى الديب فيك، أصبحت الساحة الرقمية مليئة بالصور ومقاطع الفيديو المضللة. هذا يطرح سؤالًا مهمًا: كيف يمكن للأفراد تمييز الواقع عن التلاعب؟

فهم تداعيات الديب فيك

الديب فيك هو صور أو مقاطع فيديو أو صوت اصطناعي واقعي يتم إنشاؤه باستخدام تكنولوجيا التعلم العميق. على الرغم من أن هذه التلاعبات كانت موجودة لعدة سنوات، إلا أنها اكتسبت شهرة في أواخر عام 2017 عندما بدأ مستخدم على موقع ريديت يدعى "ديب فيك" بمشاركة محتوى إباحي مولد بواسطة الذكاء الاصطناعي. ومع أن التكنولوجيا المعقدة كانت تتطلب سابقًا متطلبات خاصة لتبديل الوجوه، فإن التطورات الأخيرة قديمنتت هذه القدرة تقريبًا لكل من يرغب في إنشاء تلاعبات مقنعة لشخصيات عامة من خلال منصات مثل DALL-E وMidjourney وAdobe Firefly وStable Diffusion.

لقد سمح صعود الذكاء الاصطناعي التوليدي للجهات السيئة باستغلال الثغرات الطفيفة في التكنولوجيا؛ على سبيل المثال، وجدت وكالة التقنية المستقلة 404 ميديا أن الديب فيك المرتبط بتايلور سويفت تم إنتاجه عن طريق التلاعب بضوابط الأمان في أدوات الذكاء الاصطناعي الخاصة بشركة مايكروسوفت. وقد استخدمت تكنولوجيات مشابهة لإنشاء صور مضللة للبابا فرانسيس وصوت مقلد لشخصيات سياسية مثل الرئيس بايدن.

مخاطر الوصول السهل

تشكل سهولة الوصول إلى تكنولوجيا الديب فيك مخاطر جسيمة، قد تؤدي إلى الإضرار بسمعة الشخصيات العامة، وتضليل الناخبين، وتسهيل الاحتيالات المالية. يشير ستيف غروبمان، الرئيس التنفيذي للتكنولوجيا في مكافي، إلى اتجاه مثير للقلق حيث يقوم المحتالون بدمج مقاطع فيديو حقيقية مع صوت مزيف، مستخدمين نسخ مقلدة من ملامح مشاهير مثل سويفت لخداع الجمهور.

ووفقًا لتقرير الهوية الاحتيالية من سمسوب، زاد عدد حالات الكشف عن الديب فيك عالميًا عشرة أضعاف في عام 2023، حيث تكبد قطاع العملات الرقمية أكبر نسبة من الحوادث بنسبة 88٪، تلاه قطاع التكنولوجيا المالية بنسبة 8٪.

القلق العام يتزايد

القلق العام حول الديب فيك واضح. وجدت دراسة مكافي في 2023 أن 84٪ من الأمريكيين يشعرون بالقلق حول استخدام تكنولوجيا الديب فيك في 2024، بينما أبلغ أكثر من ثلث المشاركين عن تجارب شخصية تتعلق بعمليات احتيال تشمل الديب فيك.

مع استمرار نضوج تكنولوجيا الذكاء الاصطناعي، يصبح من الصعب بشكل متزايد تمييز المحتوى الحقيقي عن الوسائط المعدلة. يحذر بافل غولدمان-كاليدين، رئيس قسم الذكاء الاصطناعي والتعلم الآلي في سمسوب، من أن التقدم التكنولوجي، والذي كان يُنظر إليه في البداية على أنه مفيد، أصبح الآن يشكل تهديدات لسلامة المعلومات والأمن الشخصي.

كشف الديب فيك

بينما تسعى الحكومات والمنظمات لمكافحة انتشار الديب فيك، فإن القدرة على تمييز المحتوى الأصلي عن المزيف أصبحت ضرورية. يقترح الخبراء طريقتين رئيسيتين لاكتشاف الديب فيك: تحليل المحتوى بحثًا عن تناقضات دقيقة والتحقق من موثوقية المصدر.

حاليًا، يمكن أن تبدو الصور المولدة بالذكاء الاصطناعي واقعية للغاية، بينما تتحسن مقاطع الفيديو المولدة بشكل سريع. ومع ذلك، غالبًا ما تكشف التناقضات عن طبيعتها الاصطناعية، مثل الحركات غير الطبيعية لليدين، والخلفيات المشوهة، والإضاءة السيئة، والعيوب الرقمية. يؤكد فيكياريديس على أهمية فحص التفاصيل مثل الظلال المفقودة أو ميزات الوجه المتماثلة بشكل مفرط كعلامات محتملة على التلاعب.

قد تصبح هذه الطرق في الكشف أكثر تعقيدًا مع تقدم التكنولوجيا، مما يتطلب اتخاذ نهج يقظ عند التعامل مع الوسائط المشكوك فيها. ينصح رويف المستخدمين بتقييم نية المحتوى والنظر في الانحياز المحتمل للمصدر.

لمساعدة جهود التحقق، تقوم شركات التكنولوجيا بتطوير حلول كشف متقدمة. تستكشف جوجل وElevenLabs ومكافي طرقًا لتحديد المحتوى الذي تم إنشاؤه باستخدام الذكاء الاصطناعي، حيث أفادت مكافي بتحقيق معدل دقة بنسبة 90٪ في الكشف عن الصوت الضار.

في بيئة تتزايد فيها الوسائط المضللة، من الضروري فهم تداعيات ومخاطر الديب فيك. يمكن أن يساعد البقاء على علم وذو حذر الجمهور في التنقل بين هذه البيئة الرقمية الصعبة.

Most people like

Find AI tools in YBX

Related Articles
Refresh Articles