انكريبت تحصل على تمويل مبدئي لتطوير "طبقة تحكم" من أجل ذكاء اصطناعي توليدي أكثر أمانًا

إنكريبتر AI تؤمن تمويلًا أوليًا بقيمة 2.35 مليون دولار لأمان الذكاء الاصطناعي التوليدي

نجحت شركة إنكريبتر AI، الناشئة التي تتخذ من بوسطن مقرًا لها والمتخصصة في توفير طبقة تحكم للاستخدام الآمن للذكاء الاصطناعي التوليدي، في جمع 2.35 مليون دولار خلال جولة تمويل أولية قادتها Boldcap.

على الرغم من أن هذا الاستثمار يعد متواضعًا مقارنة بالاستثمارات التقليدية في مجال الذكاء الاصطناعي، إلا أن الحل المبتكر الذي تقدمه إنكريبتر يعالج حاجة ملحة: النشر الخاص والآمن والمتوافق لنماذج الذكاء الاصطناعي التوليدي. التي أسسها خريجو جامعة ييل ساهيل أغاروال وبراشانث هارشاني، تدعي إنكريبتر أن تقنيتها يمكن أن تعزز بشكل كبير اعتماد الذكاء الاصطناعي التوليدي في الشركات، مما قد يعجل من النشر حتى عشرة أضعاف.

قال هارشاني: "نحن ندعو إلى نموذج حيث يتقاطع الثقة والابتكار، مما يمكّن من نشر تقنيات الذكاء الاصطناعي بإحساس بالثقة في أنها آمنة وموثوقة تمامًا كما هي ثورية".

بالإضافة إلى Boldcap، تضم جولة التمويل الأولية مساهمين بارزين مثل Berkeley SkyDeck وKubera VC وArka VC وVeredas Partners وBuilders Fund، بالإضافة إلى عدد من المستثمرين الملائكيين من قطاعات الذكاء الاصطناعي والرعاية الصحية والشركات.

ماذا تقدم إنكريبتر AI؟

مع تزايد الطلب على الذكاء الاصطناعي التوليدي، تتطلع العديد من الشركات للاستفادة من هذه التقنية لتحسين تدفق العمل وزيادة الكفاءة. ومع ذلك، فإن نشر النماذج الأساسية يواجه تحديات تتعلق بالسلامة، بما في ذلك الحاجة إلى الحفاظ على خصوصية البيانات، والحماية من التهديدات الأمنية، وضمان الامتثال للتشريعات قبل وبعد النشر.

حاليًا، يدير معظم المنظمات هذه القضايا يدويًا عبر فرق داخلية أو مستشارين خارجيين. على الرغم من أن هذا النهج التقليدي يعمل، إلا أنه يستغرق وقتًا طويلاً ويمكن أن يؤخر مشاريع الذكاء الاصطناعي لمدة تصل إلى عامين، مما يؤدي إلى فقدان فرص العمل.

تأسست إنكريبتر في عام 2023، وتهدف إلى سد هذه الفجوة من خلال Sentry، الحل الشامل الذي يوفر رؤية وإشرافًا على استخدام الأداء لنماذج اللغة الكبيرة (LLM) عبر الوظائف التجارية. يوفر Sentry حماية للمعلومات الحساسة، ويحمي ضد التهديدات الأمنية، ويضمن الامتثال من خلال المراقبة الآلية والرقابة القوية على الوصول.

وأوضح الرئيس التنفيذي ساهيل أغاروال: "يعمل Sentry كمدخل آمن للمؤسسات، مما يمكّن التحكم في الوصول إلى النماذج إلى جانب خصوصية البيانات وأمان النموذج". "يسير بجميع تفاعلات LLM عبر الإجراءات الاحترازية الخاصة بنا لمنع اختراق البيانات والحفاظ على الامتثال التنظيمي".

تعزيز الأمان والامتثال للذكاء الاصطناعي التوليدي

تمنع إجراءات Sentry، المدعومة بتقنية إنكريبتر الخاصة، بشكل استباقي هجمات حقن التعليمات والنقاط الضعيفة في البيانات. يمكن لهذا الحل معالجة بيانات النموذج وإخفاء المعلومات الشخصية الحساسة، بينما يراقب باستمرار المحتوى المولد بواسطة الذكاء الاصطناعي للسمية والملاءمة.

يحصل مسؤول الأمن في المعلومات وقادة المنتجات على رؤية كاملة حول جميع المبادرات المتعلقة بالذكاء الاصطناعي التوليدي، مما يمكّنهم من تنفيذ إجراءات إنكريبتر بفعالية، مما يقلل من المخاطر التنظيمية والمالية والسمعية.

اختبار تأثير Sentry على نقاط الضعف في الذكاء الاصطناعي التوليدي

بينما لا تزال إنكريبتر في مرحلة ما قبل الإيرادات ولا تشارك بعد مقاييس نمو محددة، يتم تقييم تقنية Sentry من قبل شركات متوسطة إلى كبيرة في القطاعات المنظمة مثل المالية وعلوم الحياة.

على سبيل المثال، شهدت إحدى شركات فورتشن 500 التي تستخدم نموذج Llama2-7B من ميتا انخفاضًا في نقاط ضعف كسر الحماية من 6% إلى 0.6% بعد تنفيذ Sentry. سمحت هذه الخطوة للمؤسسة بتبني نماذج LLM بشكل أسرع—تحويل الفترة من سنوات إلى أسابيع لعدة تطبيقات عبر الأقسام.

سلط أغاروال الضوء على أن الشركات تبحث عن حلول شاملة بدلاً من العديد من المنتجات الجزئية للتعامل مع تسرب البيانات الحساسة، وهجمات حقن التعليمات، وإدارة الامتثال، مما يبرز الطبيعة الفريدة الكاملة لعروضهم.

في المستقبل، تخطط إنكريبتر لتوسيع حلها ليشمل مجموعة واسعة من المؤسسات، مما يظهر قدراتها عبر نماذج وبيئات متنوعة. هذه الخطوة ضرورية، حيث أصبح تحديد السلامة أولوية لأي منظمة تقوم بتطوير أو نشر حلول الذكاء الاصطناعي التوليدي.

قال أغاروال: "نحن حاليًا نتعاون مع شركاء التصميم لتحسين المنتج. منافسنا الرئيسي هو Protect AI، التي استحوذت مؤخرًا على Laiyer AI لتعزيز عروضها في مجال الأمان والامتثال".

بالإضافة إلى ذلك، شكلت هيئة المعايير NIST الحكومية الأمريكية ائتلافًا للسلامة في الذكاء الاصطناعي يتألف من أكثر من 200 شركة للتركيز على وضع معايير أساسية لقياس سلامة الذكاء الاصطناعي.

Most people like

Find AI tools in YBX