تشير التوقعات إلى أن ChatGPT من OpenAI سيحدث تغييرات جذرية في طريقة عملنا، إلا أن دمجه في الشركات يطرح تحديات. في حين تدرك الشركات أن الذكاء الاصطناعي التوليدي يمثل ميزة تنافسية، فإن خطر كشف المعلومات الحساسة يبقى مرتفعاً.
تحدي الاستخدام غير المنضبط
يستخدم العديد من الموظفين ChatGPT دون علم أصحاب العمل، مما يؤدي بشكل غير مقصود إلى مشاركة بيانات حساسة. تحتاج الشركات إلى حل، وتعتزم Metomic ملء هذه الفجوة. أطلقت شركة برمجيات أمان البيانات إضافة للمتصفح، Metomic for ChatGPT، مصممة لتتبع نشاط المستخدم داخل النموذج اللغوي الكبير لـ OpenAI.
يقول ريتش فيبرت، الرئيس التنفيذي لشركة Metomic: "لا يوجد محيط لهذه التطبيقات؛ إنها الغرب المتوحش في أنشطة تبادل البيانات". "لا أحد لديه رؤية مطلقاً".
مدى تسرب البيانات
تشير الأبحاث إلى أن 15% من الموظفين يقومون بإدخال بيانات الشركة بانتظام إلى ChatGPT، حيث تتضمن هذه البيانات الشيفرات المصدرية (31%)، والمعلومات التجارية الداخلية (43%)، والمعلومات الشخصية القابلة للتحديد (12%). وتشمل الإدارات الرئيسية المعنية في هذه الأنشطة البحث والتطوير، والمالية، والمبيعات/التسويق.
يوضح فيبرت أن "هذه مشكلة جديدة تمامًا"، مشيرًا إلى "الخوف الهائل" الذي تشعر به الشركات بشأن استخدام الموظفين لهذه الأدوات. "لا توجد حواجز؛ تحتاج فقط إلى متصفح".
تظهر نتائج Metomic أن الموظفين يسربون بيانات مالية حساسة، بما في ذلك الميزانيات العمومية ومقتطفات الشيفرة. ما يثير القلق بشكل خاص هو تسرب نصوص محادثات العملاء، التي قد تحتوي على معلومات حساسة مثل الأسماء، وعناوين البريد الإلكتروني، وأرقام بطاقات الائتمان.
"يتم إدخال ملفات تعريف العملاء كاملة في هذه الأدوات"، لاحظ فيبرت، مشيراً إلى إمكانية وصول المنافسين والقراصنة، مما يؤدي إلى مخاطر خرق العقود.
خطر التهديدات الداخلية الخبيثة
إلى جانب التسريبات غير المتعمدة، هناك مخاطر ناتجة عن الموظفين الذين يغادرون العمل وقد يستخدمون أدوات الذكاء الاصطناعي التوليدي لأخذ البيانات الملكية معهم. بالإضافة إلى ذلك، قد يقوم الموظفون الخبيثون بتسريب معلومات حساسة بشكل متعمد، مما يطرح تهديدات إضافية.
بينما تختار بعض الشركات حظر ChatGPT والمنصات المشابهة، يحذر فيبرت من أن هذه ليست استراتيجية مستدامة. "هذه الأدوات هنا لتبقى"، يؤكد، مشددًا على قيمة ChatGPT في تعزيز الإنتاجية والكفاءة.
أمان البيانات من خلال تمكين الموظفين
يعمل تكامل Metomic مع ChatGPT داخل المتصفح، حيث يتعرف على دخول الموظفين إلى المنصة ويمسح البيانات المرفوعة في الوقت الفعلي. إذا تم الكشف عن بيانات حساسة، مثل المعلومات الشخصية القابلة للتحديد أو بيانات الأمان، يتم إخطار المستخدمين بحذف أو تصنيف تلك البيانات بشكل مناسب.
كما تتلقى فرق الأمان تنبيهات حول الانتهاكات المحتملة للبيانات، لضمان اتخاذ تدابير استباقية. يوضح فيبرت: "هذه أمان البيانات من منظور الموظفين"، مع التركيز على الرؤية والتحكم بدلاً من القيود الصارمة. "تحول الضجيج إلى رؤى قابلة للتنفيذ لفرق الأمان والتحليلات"، مضيفاً أنه يواجه التعب من الإنذارات الذي تعاني منه أقسام تكنولوجيا المعلومات.
التنقل في مشهد SaaS
اليوم، تستخدم الشركات مجموعة متنوعة من تطبيقات SaaS— يُقدَّر عددها بـ 991، لكن 25% فقط منها مترابطة. يبرز فيبرت الزيادة غير المسبوقة في استخدام أدوات SaaS، موضحًا أن Metomic تتصل بتطبيقات متنوعة ومزودة بـ 150 مصنف بيانات للتعرف على مخاطر البيانات الحرجة بناءً على عوامل سياقية مثل التنظيمات الصناعية.
"فهم مكان وجود البيانات عبر الأدوات أمر أساسي"، يقول، مشيرًا إلى أهمية تحديد "نقاط البيانات الساخنة" داخل الإدارات أو الموظفين المحددين. مع توسع نظام SaaS، ستزداد أيضًا استخدام أدوات الذكاء الاصطناعي التوليدي مثل ChatGPT.
كما يوضح فيبرت بدقة: "هذه ليست حتى بداية رحلة طويلة أمامنا".