Техногиганты Google, Microsoft и OpenAI объявили о своих обязательствах в области искусственного интеллекта перед Мюнхенской конференцией по безопасности.

В области кибербезопасности "дилемма защитника" подчеркивает суровую реальность: защитники всегда находятся в состоянии высокой готовности, неустанно работая над предотвращением нарушений, в то время как злоумышленники нуждаются лишь в одной возможности, чтобы нанести значительный ущерб. Для борьбы с этим неумолимым циклом Google выступает за интеграцию передовых AI-инструментов в стратегии кибербезопасности.

Объявление о инициативе AI Cyber Defense

Перед конференцией по безопасности в Мюнхене (MSC), состоявшейся 16 февраля, Google представила свою инициативу "AI Cyber Defense", а также несколько обязательств, касающихся AI и кибербезопасности. Это заявление последовало за подобными объявлениями от Microsoft и OpenAI, которые подчеркнули важность "безопасного и ответственного" использования AI для снижения угроз со стороны злонамеренных действий.

Собираясь на MSC для обсуждения международной политики безопасности, мировые лидеры и технологические гиганты стремятся продемонстрировать свою проактивную позицию в области кибербезопасности. "Революция AI уже началась," - заявила Google в блоге. "Мы рады потенциалу AI в решении поколенческих проблем безопасности и создании надежного цифрового мира."

Обязательства по обеспечению безопасности с помощью AI

Во время конференции более 450 участников из разных секторов обсудят такие темы, как технологии, трансатлантическая безопасность и глобальное управление. MSC направлена на развитие диалогов по регулированию технологий и их влиянию на инклюзивную безопасность и сотрудничество.

С учетом того, что AI является ключевым вопросом для лидеров и регулирующих органов, Google обязуется инвестировать в "инфраструктуру, готовую к AI", предоставлять новые защитные инструменты и запускать инициативы по обучению безопасности с учетом AI.

Одним из ключевых объявлений стало создание новой группы "AI for Cybersecurity", состоящей из 17 стартапов из США, Великобритании и ЕС. Эта инициатива направлена на укрепление трансатлантической экосистемы кибербезопасности с помощью стратегий интернационализации, инструментов AI и навыков, необходимых для эффективного внедрения.

Дополнительные инициативы Google включают:

- Расширение программы Cybersecurity Seminars Google.org на сумму 15 миллионов долларов для повышения квалификации специалистов по кибербезопасности в недостаточно обслуживаемых сообществах Европы.

- Запуск Magika, открытого AI-инструмента для идентификации типов файлов, который улучшает обнаружение вредоносного ПО с увеличением точности на 30% и значительно лучший уровень точности (до 95%) для сложных типов контента, таких как VBA и JavaScript.

- Предоставление 2 миллионов долларов в виде исследовательских грантов таким учреждениям, как Университет Чикаго, Университет Карнеги-Меллона и Стэнфордский университет, для улучшения проверки кода и разработки более устойчивых алгоритмов обнаружения угроз.

Более того, Google подчеркивает важность своей Secure AI Framework, представленной в июне, для помощи организациям в внедрении лучших практик безопасности AI. "Технологии безопасности AI должны быть безопасны по замыслу и по умолчанию," - утверждает Google, подчеркивая необходимость целенаправленных инвестиций и эффективных регулирующих рамок для максимизации преимуществ AI, одновременно ограничивая его злонамеренное использование.

Совместные усилия против злоупотребления AI

В совместном заявлении Microsoft и OpenAI выразили обеспокоенность по поводу растущего использования AI злоумышленниками в качестве инструмента повышения производительности. OpenAI отменила доступ для аккаунтов, связанных с группами угроз, поддерживаемыми государством, из стран, таких как Китай, Иран, Северная Корея и Россия, отметив, что их тактики включают отладку кода, создание фишингового контента и сбор разведывательной информации.

Обе компании стремятся обеспечить ответственное использование технологий AI, причем Microsoft формулирует принципы, сосредоточенные на выявлении злонамеренного использования, сотрудничестве с заинтересованными сторонами и информировании общественности о злоупотреблениях AI.

Растущие киберугрозы и роль AI

Команда по разведке угроз Google сообщает об увеличении киберугроз, вызванном профессионализацией злоумышленников и приоритетом наступательных возможностей в геополитическом контексте. Такие страны, как Китай, Россия, Северная Корея и Иран, активно инвестируют в AI как для наступательных, так и для оборонительных целей, создавая значительные риски в различных секторах.

Злоумышленники используют AI для улучшения усилий в области социальной инженерии, создания сложных схем фишинга и манипуляции информацией. Как предупреждает Google, развитие технологий AI может значительно усилить злонамеренные операции.

С другой стороны, AI предоставляет защитникам значительные преимущества в обнаружении уязвимостей, реагировании на инциденты и анализе вредоносного ПО. AI способен оптимизировать процессы разведки угроз, классифицировать вредоносное ПО и приоритизировать угрозы, что в корне меняет ландшафт кибербезопасности.

Собственные команды по обнаружению Google используют генеративный AI для повышения качества сводок по инцидентам, улучшая эффективность и качество результатов. Компания также отметила 40% увеличение уровня обнаружения спама благодаря передовым моделям обработки и 15% снижение ошибок в процессах проверки кода благодаря эффективным приложениям AI.

В конечном счете, как полагают исследователи Google, "AI представляет собой критическую возможность изменить дилемму защитника, сместив баланс в киберпространстве в пользу защитников."

Most people like

Find AI tools in YBX

Related Articles
Refresh Articles