ميتا تعزز جهودها لمكافحة المعلومات المضللة قبل الانتخابات الأوروبية الرئيسية

مبادرات ميتا لمكافحة المعلومات المضللة قبيل انتخابات البرلمان الأوروبي

مع اقتراب انتخابات البرلمان الأوروبي، تطبق ميتا، الشركة الأم لفيسبوك وإنستغرام، تدابير جديدة لمواجهة انتشار المعلومات المضللة عبر منصاتها. في منشور مدونة حديث، أوضح ماركو بانشيني، رئيس الشؤون الأوروبية في ميتا، استراتيجية شاملة تشمل إنشاء مركز عمليات انتخابية خاص بالاتحاد الأوروبي، وتعزيز شبكة شركاء التحقق من الحقائق، وتطوير أدوات لاكتشاف ووضع علامات على المحتوى الذي تم إنشاؤه بالذكاء الاصطناعي.

وأشار بانشيني إلى أنه "مع قرب الانتخابات، سنقوم بتفعيل مركز عمليات انتخابية خاص بالاتحاد الأوروبي، يجمع بين خبراء في مجالات الاستخبارات، وعلوم البيانات، والهندسة، والبحث، والعمليات، وسياسات المحتوى، والفرق القانونية. سيمكننا ذلك من تحديد التهديدات المحتملة وتنفيذ تدابير استباقية مستهدفة في الوقت الفعلي عبر تطبيقاتنا وتقنياتنا."

تعتبر الانتخابات المرتقبة في يونيو حاسمة لمستقبل الاتحاد الأوروبي في لحظة مفصلية. ومع ارتفاع تقنيات مثل "ديب فيك"، تمثل تكتيكات التلاعب بالناخبين تهديدًا خطيرًا لنزاهة العملية الانتخابية.

منذ حادثة التدخل في انتخابات 2016 التي شملت قراصنة روس، تعرضت ميتا للتدقيق وتعهدت بضخ مليارات لتحسين السلامة والأمان. كما قدمت الشركة تدابير شفافية متنوعة للإعلانات السياسية.

خبراء يعبرون عن مخاوفهم بشأن استراتيجيات ميتا

رغم هذه الجهود، يحذر الخبراء من أن استراتيجية ميتا لمكافحة المعلومات المضللة قد لا تكون كافية. أفادت تقارير بأن الشركة فشلت في تحديد حملات التأثير المنسقة من الصين المستهدفة للأمريكيين قبيل انتخابات 2022 النصفية.

بينما تعمل ميتا على توسيع شبكة التحقق من الحقائق لتغطية جميع اللغات الرسمية الـ 24 في الاتحاد الأوروبي وإضافة متطلبات للكشف عن المحتوى الذي تم إنشاؤه بالذكاء الاصطناعي، يدعي النقاد أن هذه المبادرات تفتقر إلى التنفيذ الكافي. ويظل النظام الموثوق للتحقق من صحة الصور والفيديوهات التي تعرض حوادث عنف بعيد المنال، مما يعيد صعوبة تفنيد المحتوى المزيف المتطور الذي تم إنشاؤه باستخدام برامج تحرير متقدمة.

يبدو أن إضافة ثلاثة شركاء جدد فقط في مجال التحقق من الحقائق غير كافية، نظرًا لحجم تهديد المعلومات المضللة خلال انتخابات مهمة كهذه. قد تجد الجهود المجمعة لـ 29 منظمة في جميع أنحاء أوروبا صعوبة في التعامل مع الزيادة المتوقعة في المحتوى المضلل.

وعلاوة على ذلك، بينما تمثل تسمية الشفافية المخطط لها من ميتا لمحتوى الذكاء الاصطناعي تقدمًا، يتساءل الخبراء عن مدى فعالية النظام في تحديد الوسائط المعدلة، وخاصة "ديب فيك". حاليًا، لا توجد تقنية يمكنها الكشف بدقة عن التزويرات التي تم إنشاؤها بالذكاء الاصطناعي.

ضعف المؤثرين وحملات التأثير الخفية

لقد نجحت العمليات التأثيرية السابقة في استغلال مصداقية الشخصيات العامة، بما في ذلك السياسيين والصحفيين، لنشر روايات مثيرة للانقسام. مع حدوث انتخابات ذات أهمية كبيرة في 80 دولة هذا العام، يمكن أن تؤدي جهود المعلومات المضللة الصغيرة إلى تصعيد كبير إذا عززها مؤثرون أو شخصيات موثوقة.

أكد بن نيمو، رئيس قسم الاستخبارات العالمية في ميتا، أن الحملات التأثيرية الخفية غالبًا ما تخترق الخطاب السياسي السائد من خلال التلاعب بمؤثرين موثوقين. وقال نيمو في أحدث تقرير عن التهديدات المعادية: "الطريقة الرئيسية التي تتسلل بها الحملات الخفية إلى المجتمعات الحقيقية هي عندما تتمكن من استقطاب أفراد حقيقيين لديهم جمهور."

تستمر هذه الثغرة، حيث يمكن حتى أن تساهم المشاركة المحدودة من أفراد موثوقين في منح الشرعية لروايات خاطئة مرتبطة بالتدخل الخارجي.

بينما تقترب الانتخابات الحاسمة للاتحاد الأوروبي، تظل ميتا في حالة تأهب. ومع تقدم تكنولوجيا "ديب فيك"، يستمر مشهد الحرب المعلوماتية في التطور. ورغم أن مبادرات ميتا تمثل خطوة كبيرة إلى الأمام، فإن حماية الديمقراطية في العصر الرقمي تظل تواجه تحديات مستمرة، حيث تظل الأصوات المؤثرة أهدافًا رئيسية للتلاعب.

Most people like

Find AI tools in YBX