CISO и CIO оценивают преимущества использования генеративного ИИ в качестве двигателя непрерывного обучения, который захватывает поведенческие данные, телеметрию, информацию о вторжениях и утечках, а также связанные риски. Цель — создать новую "мышечную память" о угрозах для улучшения прогнозирования утечек и оптимизации рабочих процессов SecOps.
Тем не менее, доверие к генеративному ИИ остается неоднозначным. Последние беседы с CISO из различных производственных и сервисных секторов показывают, что, несмотря на возможные приросты производительности в маркетинге, операциях и безопасности, основными проблемами, озвучиваемыми членами правления, являются риски повреждения интеллектуальной собственности и конфиденциальности данных.
Недавний опрос компании Deep Instinct, «Генеративный ИИ и кибербезопасность: светлое будущее бизнес-поля боя?», количественно описывает данные, собранные из интервью с CISO. Исследование показывает, что 69% организаций уже используют инструменты генеративного ИИ, однако 46% специалистов по кибербезопасности считают, что эти инструменты увеличивают вероятность атак. Удивительные 88% CISO и лидеров безопасности утверждают, что атаки с использованием оружия ИИ неизбежны.
85% респондентов подозревают, что недавние атаки были осуществлены с помощью генеративного ИИ, особенно с появлением WormGPT — инструмента, рекламируемого на подпольных форумах для фишинга и атак на бизнес-электронную почту. Инструменты, такие как FraudGPT, стремительно завоевывают популярность в тёмной сети, демонстрируя быструю коммерциализацию оружия ИИ.
Свен Крассер, главный научный сотрудник и старший вице-президент CrowdStrike, отметил, что злоумышленники ускоряют оружейное использование крупных языковых моделей (LLM) и генеративного ИИ. Хотя это увеличивает скорость и объем атак, Крассер подчеркивает, что это не улучшает качество атак. Он предлагает использовать облачную безопасность с применением ИИ для корреляции глобальных сигналов в борьбе с развивающимися угрозами.
Макс Хайнемейер, директор по охоте за угрозами Darktrace, предупреждает, что предприятия должны внедрять кибер-ИИ для защиты, прежде чем наступит эпоха оффенсивного ИИ. Он утверждает, что когда конфликт перерастает в сражение алгоритмов, единственным эффективным ответом на атаки с усилением ИИ станут автономные реакции на машинах.
Рынок приложений генеративного ИИ стремительно расширяется. Способность генеративного ИИ к непрерывному обучению особенно полезна для анализа обширных данных, генерируемых конечными точками. Ожидается, что продолжающиеся обновления алгоритмов оценки угроз и приоритизации рисков приведут к новым примерам использования, которые CISO и CIO надеются улучшат прогнозирование угроз. Например, партнерство Ivanti с Securin направлено на обеспечение приоритизации рисков в реальном времени и улучшение уровня безопасности.
Сотрудничество Ivanti и Securin объединяет уязвимую информацию Securin с Ivanti Neurons для экосистемы интеллектуальной информации о угрозах в почти реальном времени. Доктор Шринивас Муккамала, главный продуктовый директор Ivanti, подчеркивает преимущества дополненной ИИ человеческой интеллигенции в обеспечении всесторонней информации о угрозах и приоритизации рисков.
Ожидается, что рынок кибербезопасности с использованием генеративного ИИ вырастет с 1,6 миллиарда долларов в 2022 году до 11,2 миллиарда долларов к 2032 году, что отражает среднегодовой темп роста (CAGR) в 22%. Canalys предсказывает, что генеративный ИИ станет основой более чем 70% операций по кибербезопасности в течение следующих пяти лет.
Forrester делит примеры применения генеративного ИИ на три основные области: создание контента, прогнозирование поведения и артикуляция знаний. Эли Меллен, старший аналитик Forrester, подчеркивает, что хотя интеграция ИИ и машинного обучения в инструментах безопасности не нова, она эволюционирует для более эффективного использования исторических данных и методологий оценки рисков.
Gartner прогнозирует, что 80% приложений будут иметь функции генеративного ИИ к 2026 году, что указывает на стремительное распространение среди организаций. CISO подчеркивают, что адаптивность платформы имеет ключевое значение для максимального использования приложений генеративного ИИ, особенно в расширении более широких рамок безопасности с нулевым доверием.
Для эффективной интеграции генеративного ИИ в структуру нулевого доверия CISO рекомендуют защищать все приложения, платформы, инструменты и конечные точки с помощью непрерывного мониторинга, динамического управления доступом и постоянной верификации. Внедрение генеративного ИИ может привести к новым вектором атак, побуждая CISO приоритизировать защиту от атак запросов, инъекций подсказок, манипуляции моделями и отравления данных.
Управление знаниями с использованием генеративного ИИ становится ключевым примером применения, заменяя длительные и затратные проекты по системной интеграции. На RSAC 2023 несколько поставщиков представили решения на базе ChatGPT, включая Google Security AI Workbench и Microsoft Security Copilot, демонстрируя тенденцию к укреплению безопасности через ИИ.
Введение CrowdStrike Charlotte AI направлено на повышение производительности для аналитиков безопасности, автоматизируя рутинные задачи и улучшая процессы обнаружения угроз с применением разговорного ИИ. Charlotte AI, который будет введен в действие в течение следующего года, отслеживает реальное взаимодействие для эффективного мониторинга угроз.
Ошибки в конфигурации облака остаются значительной целью для злоумышленников, причем случаи эксплуатации возросли на 95% по сравнению с прошлым годом. В ответ на растущие угрозы эксперты предсказывают активизацию слияний и поглощений, направленных на укрепление безопасности мультиоблаков и гибридных облаков. Приобретение CrowdStrike компании Bionic подтверждает эту тенденцию, подчеркивая важность генеративного ИИ в укреплении общих усилий по кибербезопасности.