Новое исследование Menlo Security подчеркивает настоятельные проблемы кибербезопасности, возникающие в результате быстрого внедрения генеративного ИИ в компании. С такими инструментами, как ChatGPT, ставшими неотъемлемой частью ежедневной работы, бизнесу необходимо пересмотреть свои стратегии безопасности.
«Сотрудники активно используют ИИ в повседневных задачах. Наши контрольные механизмы должны не только блокировать неправомерное использование, но и предотвращать несанкционированный доступ», — отметил Эндрю Хардинг, вице-президент по продуктам и маркетингу Menlo Security, в эксклюзивном интервью. «Хотя наблюдается значительный рост использования генеративного ИИ в компаниях, команды безопасности и ИТ сталкиваются с постоянными вызовами. Нам нужны эффективные инструменты, которые обеспечивают надежный контроль над ИИ-приложениями, позволяя CISO управлять рисками и одновременно использовать продуктивные преимущества Генеративного ИИ».
Рост использования ИИ среди рисков
Отчет Menlo Security выявляет тревожные тенденции: посещения сайтов генеративного ИИ в компаниях увеличились более чем на 100% за последние шесть месяцев, а число постоянных пользователей возросло на 64%. Это быстрое внедрение открывает новые уязвимости.
Хотя многие организации усиливают меры безопасности для генеративного ИИ, исследователи отмечают, что большинство внедряют неэффективные политики на уровне домена. «Организации усиливают безопасность, но при этом допускают ошибки. Политики, применяемые на уровне домена, недостаточны», — подчеркнул Хардинг.
Этот фрагментарный подход не успевает за появлением новых платформ генеративного ИИ. В отчете отмечается, что попытки загрузки файлов на сайты генеративного ИИ возросли на 80% за шесть месяцев, чему способствовали новые функции. Риски выходят за пределы возможной утраты данных.
Эксперты предупреждают, что генеративный ИИ может значительно усиливать фишинговые угрозы. Хардинг отметил: «Фишинг на основе ИИ — это более интеллектуальный фишинг. Компании нуждаются в защите в реальном времени, чтобы предотвратить широкое распространение мошенничества на основе ИИ».
От новшества к необходимости
Восход генеративного ИИ, особенно после появления ChatGPT, трансформировался из технологического новшества в бизнес-необходимость. OpenAI впервые представила свою систему генеративного ИИ GPT-1 в июне 2018 года, за чем последовали такие достижения, как PaLM от Google Brain с 540 миллиардами параметров, запущенная в апреле 2022 года.
Общественный интерес значительно возрос с появлением DALL-E в начале 2021 года, но именно дебют ChatGPT в ноябре 2022 года вызвал широкую активность. Пользователи быстро начали внедрять эти инструменты в различные задачи, от составления электронных писем до отладки кода, демонстрируя универсальность ИИ.
Однако это быстрое внедрение влечет за собой значительные риски, которые часто игнорируются. Системы генеративного ИИ настолько безопасны, этичны и точны, насколько надежны данные, использованные в обучении. Они могут непреднамеренно раскрывать предвзятости, распространять дезинформацию и даже случайно обнародовать конфиденциальную информацию.
Более того, эти модели извлекают данные из огромных объемов информации в интернете, что создаёт трудности в контроле за тем, какой контент они поглощают. Если конфиденциальная информация будет опубликована, эти системы ИИ могут случайно её усвоить и затем раскрыть.
Искусство баланса безопасности и инноваций
Чтобы эффективно сбалансировать безопасность и инновации, эксперты рекомендуют многослойный подход. Хардинг предлагает «установить ограничения на копирование и вставку, разработать политики безопасности, отслеживать сеансы и вводить групповые ограничения на платформах генеративного ИИ».
Организациям необходимо извлекать уроки из прошлых технологических изменений. Технологии, такие как облачные вычисления и мобильные устройства, изначально влекли за собой новые риски, требуя постоянной адаптации стратегий безопасности. Тот же проактивный подход необходим для генеративного ИИ.
Действовать нужно сейчас. «Посещения сайтов генеративного ИИ и количество активных пользователей растут, но команды безопасности и ИТ по-прежнему сталкиваются с трудностями», — предостерег Хардинг.
Чтобы защитить свои операции, компаниям необходимо быстро адаптировать свои стратегии безопасности к стремительному внедрению генеративного ИИ. Важно найти баланс между безопасностью и инновациями, иначе риски, связанные с генеративным ИИ, могут выйти из-под контроля.