Meta запускает инициативу Purple Llama для повышения безопасности ИИ
Признавая настоятельную необходимость в надежной системе безопасности для разработки генеративного ИИ, Meta недавно представила инициативу Purple Llama. Эта программа объединяет оспаривающие (красная команда) и защитные (синяя команда) стратегии, вдохновленные концепцией «пурпурной команды» в кибербезопасности, с целью укрепления доверия и снижения рисков атак в технологиях ИИ.
Понимание концепции «пурпурной команды»
Инициатива Purple Llama объединяет атакующие и защитные методологии для оценки, выявления и смягчения потенциальных киберугроз. Термин «пурпурный» символизирует гармоничное сочетание тактик атаки и защиты, подчеркивая приверженность Meta к безопасности и надежности систем ИИ.
Почему Meta запустила инициативу Purple Llama именно сейчас
"Purple Llama — это значимый шаг вперед для Meta. После участия в IBM AI Alliance, основной целью которой является повышение доверия и управление моделями ИИ, Meta проактивно запускает инструменты и структуры даже до завершения работы комитета," отметил Энди Турай, вице-президент и главный аналитик Constellation Research Inc., в недавнем интервью.
Объявление Meta подчеркивает, что "поскольку генеративный ИИ вызывает всплеск инноваций — от чат-ботов до генераторов изображений — компания стремится содействовать сотрудничеству в области безопасности ИИ и укреплению доверия к новым технологиям." Инициатива стала ключевым шагом к ответственному развитию генеративного ИИ, характеризующемуся совместными усилиями всей ИИ-общины и всесторонними ориентиром, стандартами и инструментами. Одной из ключевых задач инициативы является обеспечение разработчиков генеративного ИИ ресурсами для выполнения обязательств Белого дома по ответственному развитию ИИ.
Ключевые инструменты, выпущенные в рамках инициативы Purple Llama
Meta начала программу Purple Llama с представления CyberSec Eval — подробного набора критериев оценки кибербезопасности для крупных языковых моделей (LLM) и Llama Guard — классификатора безопасности, предназначенного для эффективной фильтрации вводимых/выводимых данных. Кроме того, Meta выпустила Руководство по ответственному использованию, которое описывает лучшие практики для внедрения этой структуры.
Сотрудничество: краеугольный камень безопасности ИИ
Приверженность Meta к межотраслевому сотрудничеству является основополагающим элементом ее стратегии разработки ИИ, стремящейся создать открытую экосистему. Достичь этой цели сложно из-за конкурентной природы отрасли; тем не менее, Meta успешно привлекла партнеров из недавно созданного AI Alliance, включая AMD, AWS, Google Cloud, Hugging Face, IBM, Intel, Lightning AI, Microsoft, MLCommons, NVIDIA и Scale AI, среди прочих, для улучшения инструментов, доступных сообществу с открытым исходным кодом.
"Примечательно, что Meta также намерена сотрудничать с лидерами отрасли, находящимися вне альянса — AWS, Google, Microsoft, NVIDIA — которые изначально не были включены," отметил Турай.
Meta зарекомендовала себя как организатор, объединяющий партнеров вокруг общих целей. В июле компания запустила Llama 2 более чем с 100 партнерами, многие из которых теперь сотрудничают с Meta в рамках инициатив по открытой безопасности и доверию. Компания также организует семинар на NeurIPS 2023, чтобы углубиться в изучение этих инструментов.
Для компаний, возглавляемых CIO, CISO и CEO, наблюдение за таким уровнем сотрудничества имеет решающее значение для укрепления доверия к генеративному ИИ и обоснования инвестиций в DevOps для создания и развертывания моделей. Демонстрируя, что даже конкуренты могут работать вместе ради общей, благоприятной цели, Meta и ее партнеры имеют возможность повысить доверие к своим решениям. Доверие, как и продажи, строится на последовательных действиях с течением времени.
Многообещающее начало, но требуется больше действий
"Предложенный набор инструментов предназначен для того, чтобы помочь разработчикам LLM оценить риски безопасности, оценить ненадежный код и предотвратить эксплуатацию этих моделей для злонамеренных кибератак. Хотя это похвальный первый шаг, требуется гораздо больше," советует Турай.