كيفية تأثير تقنية الذكاء الاصطناعي التوليدي على تلاعب الصوت المباشر

استغلال نماذج اللغة الكبيرة في الهجمات القائمة على الصوت

أدى ظهور نماذج اللغة الكبيرة (LLMs) إلى تهديد جديد يتمثل في اختطاف المحادثات المتعلقة بمعلومات الحسابات المصرفية الحساسة. يزداد استخدام مجرمي الإنترنت لنماذج اللغة الكبيرة لتنفيذ مخططات اصطياد معقدة، وتنسيق هجمات الهندسة الاجتماعية، وتطوير نسخ متقدمة من برامج الفدية.

طور فريق استخبارات التهديدات في IBM مفهوم هجمات LLM من خلال اختطاف المحادثات الحية بنجاح، واستبدال التفاصيل المالية الشرعية بتعليمات احتيالية. ومن المدهش أن مجرد ثلاث ثوانٍ من صوت شخص مسجل وفرت بيانات كافية لتدريب نماذج اللغة الكبيرة اللازمة لهجوم نموذج إثبات المفهوم (POC)، الذي تصفه IBM بأنه "سهل بشكل مخيف".

اختطاف الصوت: تهديد مبتكر

يمثل اختطاف الصوت هجومًا جديدًا مُعتمدًا على الذكاء الاصطناعي التوليدي يمكّن مجرمي الإنترنت من اعتراض وتManipulation المحادثات الحية بشكل سري. من خلال إعادة تدريب فعالة لنماذج اللغة الكبيرة، أظهر باحثو IBM قدرتهم على تغيير المناقشات المالية الجارية في الوقت الحقيقي، بينما لا يدرك المشاركون أن معاملاتهم قد تعرضت للاختراق. خلال تجربتهم، تم تحويل الأموال إلى حساب احتيالي بينما كانت المحادثة تبدو طبيعية.

استبدال الكلمات: آلية الهجوم

تكمن جوهر اختطاف الصوت في القدرة على تحديد واستبدال كلمات معينة ضمن المحادثة. في هذه الحالة، ركز الباحثون على عبارة "رقم الحساب البنكي". وفقًا لشينتا لي، المهندسة الرئيسية لاستخبارات التهديدات في IBM Security، "أمرنا نموذج اللغة الكبيرة باستبدال أي أرقام حسابات بنكية ذُكرت بأرقام احتيالية. وهذا يسمح للمهاجمين باستخدام صوت مقلد لتعديل المحادثات دون اكتشاف، مما يحول المشاركين إلى دمى غير واعية."

أشارت لي إلى أن بناء نموذج الإثبات كان سهلًا بشكل مفاجئ. قُدّم جزء كبير من الجهد لالتقاط الصوت بفعالية وتحويله عبر الذكاء الاصطناعي التوليدي. تسهل نماذج اللغة الحديثة فهم وتكييف دلالات المحادثات.

تقنيات الهجوم والثغرات

يمكن لأي جهاز قادر على الوصول إلى نماذج اللغة الكبيرة أن يطلق هجوم اختطاف صوتي. تصف IBM هذه الهجمات بأنها "صامتة"، مشيرة إلى طرق متعددة، مثل البرمجيات الخبيثة على أجهزة الضحايا أو خدمات VoIP المخترقة. يمكن للمهاجمين أيضًا إشراك ضحيتين في محادثة لتعزيز مخططاتهم، على الرغم من أن ذلك يتطلب مهارات متقدمة في الهندسة الاجتماعية.

فهم إطار عمل اختطاف الصوت

في نموذج الإثبات، اتبعت IBM منهجية "رجل في المنتصف"، مما مكنهم من مراقبة وتأثير حوار مباشر. من خلال تحويل الكلام إلى نص، فسر نموذج اللغة الكبيرة السياق المحادثي وغير الجمل التي تتضمن مصطلح "رقم الحساب البنكي". عند حدوث التغيير، استخدمت تقنية تحويل النص إلى كلام وأصوات مقلدة مسبقًا لدمج التعديل بسلاسة في المحادثة الجارية.

مكافحة تهديد اختطاف الصوت

تؤكد نتائج IBM على الحاجة الملحة لزيادة الوعي بشأن هجمات الهندسة الاجتماعية، خاصة أن ثلاث ثوانٍ فقط من صوت شخص ما يمكن أن تعرض الأمان للخطر.

لحماية نفسك من اختطاف الصوت، ضع في اعتبارك هذه الاستراتيجيات:

1. إعادة صياغة وتأكيد: دائمًا أعد صياغة المعلومات الهامة واطلب التأكيد. كن متيقظًا للمناقشات المالية التي تبدو غير عادية أو تفتقر إلى الألفة مع التبادلات السابقة.

2. تطور تكنولوجيا الكشف: يتقدم تطوير تقنية الكشف عن الـ Deepfakes بسرعة. مع تأثير الـ Deepfakes على مختلف القطاعات، توقع ابتكارات كبيرة تهدف إلى التخفيف من عمليات الاختطاف الصامت، لا سيما في القطاع المالي.

3. اتباع أفضل الممارسات: تظل التدابير الأمنية التقليدية أساسية. غالبًا ما تستهدف الهجمات أجهزة المستخدمين، مستخدمة أساليب التصيد واستغلال بيانات الاعتماد. للدفاع ضد هذه التهديدات، اعتمد الممارسات القياسية: تجنب الروابط المشبوهة، تحديث البرمجيات بانتظام، والحفاظ على عناية قوية بكلمات المرور.

4. استخدام أجهزة وخدمات موثوقة: احمِ مؤسستك باستخدام أجهزة آمنة وخدمات على الإنترنت موثوقة. نفذ نهج عدم الثقة، واعتبر احتمال حدوث خروقات، وفرض ضوابط وصول صارمة لحماية المعلومات الحساسة.

من خلال فهم ومعالجة المخاطر التي يمثلها اختطاف الصوت، يمكن للأفراد والمؤسسات تعزيز دفاعاتهم ضد هذا التهديد الناشئ.

Most people like

Find AI tools in YBX