Zscaler تُبلغ عن زيادة بنسبة 600% في اعتماد الذكاء الاصطناعي في الشركات خلال أقل من عام، مما يسلط الضوء على مخاطر أمان البيانات.

تتزايد اعتماد المؤسسات على أدوات الذكاء الاصطناعي (AI) وتعلم الآلة (ML)، حيث شهدت المعاملات ارتفاعًا مذهلاً بنسبة تقارب 600%. النسبة ارتفعت من 521 مليون معاملة في أبريل 2023 إلى 3.1 مليار بحلول يناير 2024. ردًا على المخاوف المتزايدة بشأن الأمان، قامت المؤسسات بحجب 18.5% من جميع معاملات AI/ML، مما يعكس زيادة مذهلة بنسبة 577% على مدى تسعة أشهر.

تمتلك فرق الأمن السيبراني (CISOs) والمؤسسات التي تحميها أسبابًا مشروعة لتبني نهج حذر، مما أدى إلى مستويات غير مسبوقة من معاملات AI/ML المحجوبة. لقد تمكن المهاجمون من التكيف من خلال تسليح نماذج اللغة الكبيرة (LLMs) للاختراق دون أن تُكتشف. تمثل هذه الظاهرة تهديدًا متزايدًا غالبًا ما يمر دون ملاحظته.

وفقًا لتقرير أمان AI لعام 2024 من Zscaler، يجب على المؤسسات اعتماد استراتيجيات سيبرانية قابلة للتوسع لحماية أدوات AI/ML المتزايدة. تشمل القضايا الرئيسية التي أبرزها التقرير حماية البيانات، وإدارة جودة بيانات AI، ومخاوف الخصوصية. من خلال تحليل أكثر من 18 مليار معاملة من أبريل 2023 إلى يناير 2024، قام ThreatLabz بدراسة استخدام أدوات AI وML الحالية في مختلف القطاعات.

تشهد الصناعات مثل الرعاية الصحية، والمالية، والتأمين، والخدمات، والتكنولوجيا، والتصنيع تبنيًا ملحوظًا لأدوات AI/ML وزيادة في التعرض للهجمات السيبرانية. يولد قطاع التصنيع أعلى حجم من حركة بيانات AI، حيث يشكل 20.9% من المعاملات، يليه قطاع المالية والتأمين بنسبة 19.9% والخدمات بنسبة 16.8%.

يمثل حجب المعاملات استجابة مؤقتة ولكن سريعة

في إطار جهودها لحماية القطاعات عالية المخاطر، تقوم فرق الأمان السيبراني بحجب أعداد قياسية من معاملات AI/ML. تهدف هذه الخطوة الاستباقية إلى حماية المؤسسات من موجة من التهديدات السيبرانية.

حاليًا، يُعتبر ChatGPT الأداة الأكثر استخدامًا وتعرضًا للحجب، تليه OpenAI، Fraud.net، Forethought، وHugging Face. تشمل النطاقات المحجوبة الأكثر شيوعًا Bing.com، Divo.ai، Drift.com، وQuillbot.com. بين أبريل 2023 ويناير 2024، حظرت المؤسسات أكثر من 2.6 مليار معاملة.

يحجب قطاع التصنيع 15.65% فقط من معاملات AI، وهو رقم مقلق بالنظر إلى عرضه للهجمات السيبرانية، خصوصًا هجمات الفدية. بالمقابل، يحجب قطاع المالية والتأمين 37.16% من المعاملات، مما يعكس مخاوف متزايدة بشأن أمان البيانات والخصوصية. والمقلق أن قطاع الرعاية الصحية يحجب فقط 17.23% من معاملات AI، مما يثير تساؤلات حول التزامه بحماية البيانات الحساسة.

يمكن أن تؤدي الانقطاعات في القطاعات الحيوية مثل الرعاية الصحية والتصنيع إلى دفع فدية كبيرة. توضح الهجمة الأخيرة على United Healthcare كيفية تأثير الهجوم المتناسق على سلاسل الإمداد بالكامل.

الحجب هو حل قصير الأجل لتحدٍ أكبر بكثير

للتقدم أكثر من مجرد الحجب، يجب على المؤسسات الاستفادة من قدرات الاستطلاع الخاصة بمنصات الأمن السيبراني المتقدمة. تُعد CrowdStrike وPalo Alto Networks وZscaler من بين الشركات التي تدعم الفهم المستند إلى بيانات الاستطلاع.

أكد جورج كورتز، الرئيس التنفيذي لشركة CrowdStrike، على أهمية ربط الإشارات الضعيفة من نقاط النهاية المختلفة لتعزيز قدرات الكشف. يمتد هذا النهج إلى التعاون مع الأطراف الثالثة، مما يتيح رؤى أعمق وكشوف جديدة محسنة.

تشمل أبرز شركات الأمن السيبراني ذات الخبرة الواسعة في AI وتجاربها العديدة في ML كل من Blackberry Persona، Broadcom، Cisco Security، CrowdStrike، CyberArk، Cybereason، Ivanti، SentinelOne، Microsoft، McAfee، Sophos، وVMware Carbon Black. من المرجح أن تدرب هذه الشركات نماذجها اللغوية الكبيرة باستخدام بيانات الهجمات المستندة إلى AI لتتناسب مع الأساليب المتطورة التي يستخدمها المهاجمون.

ظهرت بيئة تهديد AI أكثر فتكًا

وفقًا لتقرير Zscaler، يمكن تصنيف مخاطر الذكاء الاصطناعي إلى منطقتين رئيسيتين: مخاطر حماية البيانات وأمان أدوات AI المؤسسية، والمشهد الجديد للتهديدات السيبرانية المدعومة بالذكاء الاصطناعي التوليدي والأتمتة.

تواجه فرق الأمن السيبراني تحديات كبيرة في الدفاع ضد تقنيات الهجوم المتنوعة التي حددها التقرير. يجب أن تكون معالجة إهمال الموظفين عند استخدام ChatGPT وضمان عدم مشاركة البيانات الحساسة بشكل غير مقصود مناقشات مهمة على مستوى المجلس الإداري. تعتبر إدارة المخاطر أولوية أساسية في أي استراتيجية للأمن السيبراني.

حماية الملكية الفكرية من التسريبات عبر ChatGPT، والتحكم في الذكاء الاصطناعي الخفي، وتحقيق الخصوصية إذا كانت البيانات والأمان هي عناصر أساسية لنجاح استراتيجية AI/ML.

في العام الماضي، شارك أليكس فيليبس، المدير التنفيذي لتكنولوجيا المعلومات في National Oilwell Varco (NOV)، رؤى حول الذكاء الاصطناعي التوليدي مع مجلس إدارته، مبرزًا أهمية فهم المزايا والمخاطر المرتبطة بـ ChatGPT. يقوم فيليبس بتحديث المجلس بانتظام حول التطورات في تقنيات الذكاء الاصطناعي التوليدي، مما يعزز توقعات مستنيرة بشأن الإجراءات الأمنية المطلوبة لمنع الانتهاكات الكبيرة.

إن تحقيق توازن بين الإنتاجية والأمان أمر حيوي في مواجهة التحديات التي تطرحها بيئة التهديد الجديدة للذكاء الاصطناعي. واجه الرئيس التنفيذي لشركة Zscaler محاولة للابتزاز الهاتفي والرسائل النصية، حيث قام المهاجمون بانتحال شخصيته في رسائل WhatsApp، في محاولة لخداع موظف للكشف عن معلومات حساسة. لحسن الحظ، أحبطت أنظمة Zscaler الهجوم، مما يدل على اتجاه متزايد يستهدف المدراء التنفيذيين وقادة التكنولوجيا.

يستخدم المهاجمون بشكل متزايد الذكاء الاصطناعي لتنظيم هجمات فدية سريعة. يُبلغ Zscaler أن برمجيات الفدية المدفوعة بالذكاء الاصطناعي هي أداة في ترسانات القراصنة القوميين، مع زيادة في التكرار. من خلال استخدام الذكاء الاصطناعي التوليدي، يقوم المهاجمون بإنشاء جداول شاملة من الثغرات المرتبطة بجدران الحماية والشبكات الافتراضية الخاصة (VPN) الخاصة بالمنظمة. تُمكن هذه المعلومات المهاجمين من تحسين استغلال الشفرات، مما يتيح تخصيص الحمولات البيانية لبيئات معينة.

علاوة على ذلك، يسلط Zscaler الضوء على كيفية تمكن الذكاء الاصطناعي التوليدي من تحديد نقاط الضعف في سلاسل الإمداد المؤسسية، مما يكشف عن المسارات المثلى للاتصال بالشبكة الأساسية. بينما قد تكون تدابير الأمان القوية موجودة، فإن نقاط الضعف في السلسلة السفلى غالبًا ما تمثل أكبر المخاطر. يقوم المهاجمون باستمرار بتحسين أساليبهم باستخدام الذكاء الاصطناعي التوليدي، مما يؤدي إلى هجمات معقدة ومستهدفة تتزايد صعوبة اكتشافها.

في النهاية، يهدف الخصوم إلى دمج الذكاء الاصطناعي التوليدي عبر سلسلة هجمات الفدية، حيث يقومون بأتمتة الاستطلاع واستغلال الشفرات لتوليد برمجيات خبيثة وفدية متقدمة ومتعددة الأشكال. من خلال تبسيط المكونات الأساسية لعملية الهجوم، يمكن لمهددي الأمن تنفيذ هجمات أسرع وأكثر استهدافًا وتعقيدًا ضد المؤسسات.

Most people like

Find AI tools in YBX

Related Articles
Refresh Articles