يقوم قادة تكنولوجيا المعلومات بإعطاء الأولوية بشكل متزايد للذكاء الاصطناعي التوليدي، حيث يتم تطبيقه على وظائف الأعمال الرئيسية مثل التسويق، التصميم، تطوير المنتجات، علوم البيانات، العمليات، والمبيعات. بالإضافة إلى تطبيقاته داخل المؤسسات، يلعب الذكاء الاصطناعي التوليدي دورًا حيويًا في الجهود الإنسانية، بما في ذلك تطوير اللقاحات، واكتشاف السرطان، والمبادرات البيئية والاجتماعية والإدارية مثل تحسين الموارد.
ومع ذلك، تقدم كل من هذه التطبيقات مخاطر أمنية مميزة، تتعلق في المقام الأول بالخصوصية، والامتثال، واحتمال فقدان البيانات الحساسة والملكية الفكرية. ومع توسع اعتماد الذكاء الاصطناعي التوليدي، ستتزايد هذه المخاطر.
يقول فيجوي باندي، نائب الرئيس في Outshift by Cisco: "يجب على المنظمات التخطيط بشكل استباقي لكل مشروع في الذكاء الاصطناعي التوليدي – داخليًا وخارجيًا – ليس فقط للمخاطر الحالية ولكن مع مراعاة التحديات المستقبلية." ويضيف: "من الضروري تحقيق التوازن بين الابتكار وثقة المستخدم، مع إعطاء الأولوية للخصوصية، والأصالة، والمسؤولية."
فهم المخاطر الفريدة للذكاء الاصطناعي التوليدي
تختلف المخاطر المتعلقة بالذكاء الاصطناعي التوليدي عن تلك المرتبطة بالتقنيات التقليدية. الهجمات الاحتيالية المتطورة التي تستخدم تقنية العمق الاصطناعي يمكن أن تضلل الأفراد، مما يجعل الاحتيال في الهوية أكثر انتشارًا. قد يقوم المحتالون بانتحال شخصية وكيل خدمة العملاء في الشركة للحصول على معلومات حساسة بشكل غير مشروع، مما يؤدي إلى خسائر مالية كبيرة.
علاوة على ذلك، غالبًا ما يدخل المستخدمون معلومات حساسة في نماذج الذكاء الاصطناعي التوليدي دون وعي، مما قد يؤدي إلى الاحتفاظ بهذه البيانات واستخدامها لأغراض التدريب، مما يثير مخاوف كبيرة بشأن الامتثال للخصوصية وحماية البيانات. يجب أن تبقى المنظمات يقظة فيما يتعلق بالتشريعات الجديدة التي تظهر استجابةً لمخاطر الذكاء الاصطناعي التوليدي.
بينما تمثل متطلبات البيانات الكبيرة لنماذج اللغة الكبيرة تحديات، يمكن أن تساعد الأطر الأمنية الحالية في التخفيف من المخاطر المرتبطة بالبيانات الخام وتسريبات البيانات. يمكن للمحتالين استغلال الثغرات ضمن دورة الذكاء الاصطناعي التوليدي، مما يعرض التنبؤات الدقيقة للخطر، أو يعيق الخدمة، أو حتى يخترق أنظمة التشغيل ويؤثر على سمعة وسائل التواصل الاجتماعي.
يقول باندي: "مع مواجهة تهديدات مثل تلوث البيانات وعكس النماذج، تصبح الاكتشافات أساسية." ويُعتمد على فترات الثقة المحددة لتقييم مخرجات النموذج، لكن إذا اخترق المهاجمون النظام، فقد تتأثر معايير الثقة لدينا.
تحديات الكشف الفوري عن المشكلات قائمة؛ حيث غالبًا ما تظهر المشاكل بمرور الوقت. تمتلك فرق العمليات الأمنية موارد مثل MITRE ATLAS وOWASP Top 10 لمعالجة المخاوف الأمنية الناتجة عن الذكاء الاصطناعي التوليدي.
يُحذر باندي: "ما زال الذكاء الاصطناعي التوليدي يتطور، ويجب أن يتطور الأمن بالتزامن معه." "هذه رحلة مستمرة."
قضايا حماية الملكية الفكرية والشفافية
يولد الذكاء الاصطناعي التوليدي مخرجات معقدة من خلال معالجة مجموعات بيانات ضخمة وخوارزميات معقدة. عادةً لا يمكن للمستخدمين تتبع أصول المعلومات المقدمة، مما يؤدي إلى مخاطر كبيرة تتعلق بتعريض الملكية الفكرية. وتبرز هذه القضية من بيانات التدريب الخارجية والمحتوى الذي ينشئه المستخدم.
يقول باندي: "التحدي هو تأمين الوصول إلى البيانات مع حماية الملكية الفكرية والمعلومات الحساسة من الخروج من المؤسسة أو دخول النموذج بشكل غير مقصود." ويتساءل: "هل نستخدم المحتوى المفتوح المصدر أو المرخص بشكل غير مناسب؟"
بالإضافة إلى ذلك، غالبًا ما تفتقر نماذج الذكاء الاصطناعي التوليدي إلى الصلة الفورية للبيانات والخصوصية، مما يؤثر على تطبيقات مثل الجيل المعزز بالاسترجاع (RAG)، الذي يُدخل سياق الأعمال الحالي ويقدم استشهادات للتحقق. يعزز RAG نماذج اللغة الكبيرة من خلال تمكينها من التعلم المستمر، مما يقلل من عدم الدقة مع الحفاظ على المعلومات الحساسة.
يصف باندي: "RAG يشبه إرسال عامي إلى المكتبة لتعلم فيزياء الكم." "جمع واستيعاب المعلومات ذات الصلة هو ما يحققه RAG في الأساس. وعلى الرغم من أنه يأتي مع تحديات ويتطلب تجريبًا، إلا أنه يخصص نماذج الأساس بشكل فعّال لتلبية حالات الاستخدام المؤسسية دون المساس بسلامة البيانات."
تأمين المستخدمين والبناء من أجل المستقبل
يتوقع باندي: "المنظر العام لحالات استخدام الذكاء الاصطناعي التوليدي محدد حاليًا بشكل جيد، ولكن في السنوات القادمة، سيتغلغل في كل ما ننتجه أو نستهلكه." "هذا يتطلب اعتماد نهج الثقة الصفرية."
افترض أن كل عنصر من عناصر النظام - من البيانات إلى النماذج وصول المستخدمين - يحتمل أن يفشل.
علاوة على ذلك، نظرًا لجدة هذه التقنية، يفتقر عدم وجود قواعد راسخة إلى جعل أخطاء البشر والثغرات سهلة التجاوز. تعتبر الوثائق الشاملة ضرورية لمعالجة الانتهاكات المحتملة وإعطاء الأولوية للتدابير الأمنية.
يقول باندي: "حدد أهدافك: وثق مصادر البيانات والنماذج في الإنتاج وعمليات تدريبها." "قم بتصنيف التطبيقات استنادًا إلى أهميتها، مع التأكد من أن سياسات الأمن تعكس هذا الأهمية."
يجب أن يتم تضمين الأمن في كل مستوى، بدءًا من البنية التحتية إلى التطبيق. إذا فشل أحد الطبقات، يمكن أن توفر استراتيجية الدفاع المتعمق حماية إضافية، مما يبرز أن الأمن هو رحلة مستمرة.
يقترح باندي: "يكمن الحل للملاحة في الأمن داخل الذكاء الاصطناعي التوليدي في العمليات العشوائية - تطوير نماذج خصيصًا لإدارة مخاوف الأمن في نماذج أخرى."
أهمية الثقة في المستخدم في الذكاء الاصطناعي التوليدي
تعتبر ثقة المستخدم مقياسًا رئيسيًا لأداء الأعمال. يؤكد باندي: "يعتمد الأمن على تجربة المستخدم، مما يؤثر بشكل مباشر على نجاح حلول الذكاء الاصطناعي التوليدي." يمكن أن تؤدي فقدان الثقة إلى تأثيرات سلبية كبيرة على الإيرادات.
يضيف: "تعتبر التطبيقات غير الآمنة تقريبًا غير موجودة؛ أي أهداف تتعلق بالتسييل أو الأعمال تصبح غير ذات أهمية." "وينطبق الشيء نفسه على نموذج الذكاء الاصطناعي التوليدي غير الآمن أو التطبيق. دون الأمن، يصبح النموذج غير قابل للاستخدام، مما يعيق نمو الأعمال."
على العكس، إذا اكتشف العملاء أن بياناتهم الخاصة تم التعامل معها بشكل غير صحيح – خاصة في بيئة الذكاء الاصطناعي التوليدي – يمكن أن تتآكل الثقة بسرعة، مما يزيد من تعقيد التصور الهش بالفعل لتقنيات الذكاء الاصطناعي.
تتطلب هاتان التحديتان المتزامنتان الوقت كي تفهم المنظمات المخاطر تمامًا وتضع حلولًا فعالة.
يختتم باندي قائلاً: "اعتمد فلسفة الثقة الصفرية، وابنِ دفاعات قوية، وكن على دراية بالطبيعة الغير شفافة للذكاء الاصطناعي التوليدي." "اعترف بأن ما تبدأ به اليوم سيختلف تمامًا عن وضعك بعد ثلاث سنوات، حيث يتطور كل من الذكاء الاصطناعي التوليدي وإجراءات الأمن المتعلقة به بسرعة."