Команды безопасности рассматривают решения на базе ИИ, но колеблются из-за высоких подписных платежей.

Команды безопасности все чаще рассматривают инновационные инструменты, такие как ChatGPT, для повышения эффективности своих стратегий обнаружения угроз. Согласно Денису Сю, старшему директору и аналитикам компании Gartner, генеративные AI-инструменты, включая ChatGPT, могут помочь специалистам в таких областях, как инжиниринг обнаружения и обучение, но затраты на премиум-версии могут стать преградой.

На саммите Gartner по безопасности и управлению рисками в Лондоне Сю отметил, что бесплатная базовая версия ChatGPT, основанная на модели GP-3.5 Turbo, испытывает трудности с сохранением контекста и выполнением кодировочных задач. В связи с этим специалистам по безопасности может понадобиться перейти на ChatGPT Plus за 20 долларов в месяц или на новую версию ChatGPT Enterprise, чтобы получить необходимые функции. По мере масштабирования организаций эти расходы могут значительно увеличиться в зависимости от количества пользователей.

Сю подчеркнул, что версия Enterprise предлагает усовершенствованный контроль данных в сравнении с базовыми и Plus-версиями, но предостерег, что она может еще не быть полностью готовой к развертыванию. Несмотря на это ограничение, многие крупные компании в сфере безопасности активно разрабатывают функции генеративного AI. Например, покупка Splunk компанией Cisco направлена на улучшение аналитических возможностей данных, в то время как Privacera запустила генеративное AI-решение в июне. Nvidia также представила свою библиотеку программного обеспечения для безопасности на основе глубокого обучения Morpheus в рамках набора AI Enterprise 3.0. Сю заметил тренд среди компаний, которые интегрируют интерфейс естественного языка ChatGPT в существующие продукты для упрощения функционала.

Хотя появились инновационные инструменты безопасности, такие как WormGPT и FraudGPT, созданные для "обмана мошенника", Сю предостерег, что доступ к этим решениям также требует инвестиций. Он отметил, что широко доступные модели, такие как ChatGPT, могут выполнять схожие функции, например, генерировать фишинговые письма. Эта ситуация создала то, что Сю назвал "гонкой вооружений" в мире AI-безопасности, где злоумышленники зачастую находятся в более выгодном положении. "За всего 20 долларов в месяц злонамеренный пользователь может разработать вредоносное ПО или создать фишинговые письма, тогда как защитникам нужно значительно больше расходов, чтобы достичь аналогичной эффективности," - подчеркнул он.

Понимание ограничений AI-инструментов крайне важно. Сю сравнил ChatGPT с пятилетним ребенком, обученным на большом наборе данных: он может быть полезен для определенных задач безопасности, но не пригоден для других. "Есть вопросы, которые просто не стоит задавать пятилетнему," - заметил он, подчеркивая важность реалистичных ожиданий и валидации. В области операций безопасности (SecOps) определение точности AI-сгенерированных инсайтов может быть сложной задачей.

Сю также отметил отсутствие надежных примеров применения AI-систем в управлении уязвимостями или управлении атакующими поверхностями, выделив Sec-PaLM от Google как единую установленную модель для обнаружения угроз, способную распознавать вредоносные скрипты. Однако он добавил, что эта модель все еще находится на ранних стадиях, и пока не опубликованы никакие бенчмарки.

Для команд безопасности, рассматривающих внедрение AI-инструментов, таких как ChatGPT, критически важно установить четкие правила управления и рабочие инструкции. "Понять, когда и как использовать AI-инструменты, и четко определить случаи использования в SecOps," - посоветовал он. Сю подчеркнул важность избегать временно чувствительных случаев и сценариев, связанных с конфиденциальными корпоративными данными, рекомендую предоставлять обучение по взаимодействию с AI и внедрять протоколы мониторинга.

Осведомленность о дрейфе AI также критична. Генеративные AI-инструменты могут не обеспечивать последовательные ответы на один и тот же запрос. Кроме того, Сю призвал команды оставаться в курсе обновлений самой технологии. Например, OpenAI недавно представила новые возможности для ChatGPT с GPT-4V, позволяющие взаимодействовать через голос и изображения. Сю выразил энтузиазм по поводу этого потенциала, представляя сценарии, где команды могут взаимодействовать со своими системами более интуитивно, просто сделав фотографию и запросив диагностику.

В конечном итоге, хотя AI-инструменты, такие как ChatGPT, могут содействовать специалистам по безопасности, упрощая их рабочие процессы, они не предназначены для замены человеческого опыта. Сю предостерег, что "эта технология все еще пятилетний ребенок", который имеет много чего научиться, подчеркивая важность разумного и эффективного использования этих инструментов по мере их развития.

Most people like

Find AI tools in YBX

Related Articles
Refresh Articles