تمامًا كما تطورت منصات السحابة بسرعة لتقديم بنية تحتية للحوسبة المؤسساتية، تتوقع شركة Menlo Ventures أن يتبع مكدس الذكاء الاصطناعي الحديث مسار نمو مشابه، مع إمكانيات هائلة لإنشاء قيمة تشبه تلك التي نراها في منصات السحابة العامة. تشير الشركة إلى أن نماذج الذكاء الاصطناعي الأساسية التي تُستخدم حاليًا تشبه في جوهرها الأيام الأولى لخدمات السحابة العامة. تحقيق التوازن الصحيح بين الذكاء الاصطناعي والأمان أمر بالغ الأهمية للسوق المتغيرة لتحقيق إمكاناتها.
يستعرض آخر منشور في مدونة Menlo Ventures، "الجزء 1: الأمان للذكاء الاصطناعي: الموجة الجديدة من الشركات الناشئة التي تتسابق لتأمين مكدس الذكاء الاصطناعي"، كيف يمكن لتقاطع الذكاء الاصطناعي والأمان أن يحفز النمو الجديد في السوق.
قال راما سيخار، شريك Menlo Ventures المتخصص في الأمن السيبراني، "إن هذه النماذج الأساسية تشبه جدًا السحابات العامة التي نعرفها اليوم، مثل AWS وAzure. ومع ذلك، قبل 12 إلى 15 عامًا، عندما بدأ هذا الطبقة من الخدمة كحل بنية تحتية، شهدنا خلق قيمة هائلة عندما تم تأسيس الأساس الجديد."
أضاف سيخار، "نعتقد أن شيئًا مشابهًا يلوح في الأفق؛ حيث إن مقدمي نماذج الأساس هم في قاعدة طبقة البنية التحتية."
معالجة تحديات الأمان لتسريع نمو الذكاء الاصطناعي التوليدي
في مقابلة، أكد سيخار وفايزا هاسكارامان، المدير الرئيسي في Menlo Ventures المتخصصة في الأمن السيبراني، أن نماذج الذكاء الاصطناعي هي جوهر مكدس الذكاء الاصطناعي الحديث. يعتمد هذا المكدس على تدفق مستمر من بيانات المؤسسات الحساسة للتعلم الذاتي، مشيرين إلى أن صعود الذكاء الاصطناعي يؤدي إلى زيادة مضاعفة في مخاطر التهديد.
يثبت تأمين نماذج اللغة الكبيرة باستخدام الأدوات الحالية أنه تحدٍ كبير، مما يخلق فجوة ثقة في المؤسسات ويعيق اعتماد الذكاء الاصطناعي التوليدي. تنبع هذه الفجوة من الفجوة بين الضجيج المحيط بالذكاء الاصطناعي التوليدي وتنفيذه الفعلي. في حين، يستفيد المهاجمون بشكل متزايد من تقنيات الذكاء الاصطناعي، مما يزيد من قلق الشركات بشأن خسارة منافسة الذكاء الاصطناعي.
لإطلاق العنان لإمكانات السوق الحقيقية للذكاء الاصطناعي التوليدي، يعتقد سيخار وهاسکارامان أنه من الضروري معالجة المخاوف الأمنية. حدد استطلاع Menlo Ventures ثلاثة حواجز رئيسية أمام اعتماد الذكاء الاصطناعي التوليدي: عائد الاستثمار غير المثبت، ومشاكل الخصوصية، والفهم الخاطئ بأن البيانات المؤسسية يصعب استخدامها مع الذكاء الاصطناعي.
يمكن أن يساعد تحسين الأمان للذكاء الاصطناعي في تخفيف المخاوف المتعلقة بالخصوصية، بينما يعالج أيضًا الحواجز الأخرى المذكورة. وأشاروا إلى أن نماذج OpenAI تعرضت مؤخرًا لهجمات إلكترونية، بما في ذلك هجوم DoS في نوفمبر الماضي الذي أثر على خدمات الـ API وChatGPT، مما أدى إلى العديد من الانقطاعات.
الحوكمة، المراقبة، والأمان: الأسس الضرورية
تؤكد Menlo Ventures أن الحوكمة، المراقبة، والأمان هي عناصر أساسية ضرورية لتوسيع نطاق أمان الذكاء الاصطناعي. تشكل هذه المكونات الأساس لخريطة السوق الخاصة بهم.
تجربة أدوات الحوكمة نموًا سريعًا، حيث تشير التقارير الإعلامية إلى زيادة في الشركات الناشئة المعنية بالحوكمة والامتثال القائمة على الذكاء الاصطناعي، خاصة الحلول السحابية التي توفر مزايا السرعة العالمية وسرعة الدخول إلى السوق. تساعد أدوات مثل Credo وCranium المؤسسات في تتبع خدمات الذكاء الاصطناعي الخاصة بها، وتقييم مخاطر الأمان والسلامة، وضمان الوعي الشامل باستخدام الذكاء الاصطناعي داخل المنظمة، وهو أمر بالغ الأهمية لحماية ومراقبة نماذج اللغة الكبيرة.
تعتبر أدوات المراقبة ضرورية لمراقبة النماذج وتجميع السجلات حول الوصول، والمدخلات، والمخرجات، مما يسهل اكتشاف سوء الاستخدام ويدعم إمكانية التدقيق الكامل. تشير Menlo Ventures إلى شركات ناشئة مثل Helicone وCalypsoAI كمستفيدين رئيسيين في تلبية هذه الاحتياجات ضمن مجموعة الحلول.
تركز حلول الأمان على إنشاء حدود للثقة، حيث يجادل سيخار وهاسکارامان بضرورة وجود ضوابط صارمة حول استخدام النماذج، سواء داخليًا أو خارجيًا. تهتم Menlo Ventures بشكل خاص بمقدمي جدران الحماية للذكاء الاصطناعي، مثل Robust Intelligence وPrompt Security، الذين يتحققون من المدخلات والمخرجات، ويحميون من حقن الأوامر، ويكتشفون المعلومات الشخصية القابلة للتحديد. تتخصص شركات مثل Private AI وNightfall في التعرف على البيانات الحساسة وإخفائها، بينما تهدف شركات مثل Lakera وAdversa إلى أتمتة الأنشطة لتقييم قوة التدابير الأمنية. تُعد حلول الكشف عن التهديدات مثل Hiddenlayer وLasso Security ضرورية أيضًا في مراقبة نماذج اللغة الكبيرة بحثًا عن سلوكيات مشبوهة. بالإضافة إلى ذلك، تعتبر حلول مثل DynamoFL وFedML للتعلم الفيدرالي، Tonic وGretel لإنشاء بيانات اصطناعية، وPrivate AI أو Kobalt Labs للتعرف على المعلومات الحساسة جزءًا لا يتجزأ من خريطة سوق الأمان للذكاء الاصطناعي المذكورة أدناه.
prioritizing Security for AI in DevOps
مع استخدام جزء كبير من تطبيقات المؤسسات لحلول مفتوحة المصدر، يعد تأمين سلاسل إمداد البرمجيات مجالًا آخر تسعى Menlo Ventures لتقليل الفجوة في الثقة فيه.
يؤكد سيخار وهاسکارامان أن أمان الذكاء الاصطناعي يجب أن يكون مدمجًا بشكل جوهري في عملية DevOps، مما يضمن أن يكون أساسيًا في بنية تطبيقات المؤسسات. وشددوا على أن تضمين الأمان في الذكاء الاصطناعي يجب أن يكون متواجدًا بشكل شامل حتى تساعد قيمته الوقائية في سد الفجوة الراهنة في الثقة، مما يسهل اعتمادًا أوسع للذكاء الاصطناعي التوليدي.