Администрация Байдена запускает консорциум по безопасности ИИ в США
После назначения старшего помощника Белого дома директором новосозданного Института безопасности ИИ в США (USAISI) при Национальном институте стандартов и технологий (NIST), администрация Байдена представила Консорциум по безопасности ИИ в США (AISIC), который считается «первым в своем роде консорциумом, посвященным безопасности искусственного интеллекта».
В состав этого сотрудничества входят более 200 организаций, включая крупнейшие технологические компании, такие как Google, Microsoft и Amazon, а также лидеры в области крупных языковых моделей (LLM), такие как OpenAI, Cohere и Anthropic. Консорциум также включает исследовательские лаборатории, академические группы, организации гражданского общества, государственные и местные органы власти, а также некоммерческие организации.
Согласно сообщению на блоге NIST, AISIC представляет собой крупнейшее объединение команд тестирования и оценки на сегодняшний день, целью которого является establishment оснований измерительной науки в области безопасности ИИ. Работая под эгидой USAISI, консорциум будет поддерживать ключевые инициативы, изложенные в указе президента Байдена, включая разработку руководящих принципов для red-teaming, оценки возможностей, управления рисками, протоколов безопасности и защиты синтетического контента.
Подробности формирования
Объявление о создании консорциума состоялось 31 октября 2023 года, одновременно с указом президента Байдена о ИИ. На сайте NIST было указано, что участие открыто для организаций, которые могут внести свой вклад в виде экспертизы, продуктов, данных или моделей. Выбранные участники должны уплатить ежегодный взнос в размере 1000 долларов и подписать Соглашение о совместных научных исследованиях и разработках (CRADA) с NIST.
Руководящие принципы безопасности ИИ
Члены консорциума сосредоточатся на нескольких ключевых направлениях:
1. Создание инструментов и лучших практик для безопасной и надежной разработки и развертывания ИИ.
2. Установление рекомендаций по идентификации и оценке потенциально опасных возможностей ИИ.
3. Продвижение практик безопасной разработки для генеративного ИИ и решение вопросов двойного назначения для базовых моделей, с обеспечением конфиденциальности в машинном обучении.
4. Обеспечение ресурсов для создания и поддержания тестовых сред.
5. Разработка практик эффективного red-teaming и методов машинного обучения с обеспечением конфиденциальности.
6. Проектирование инструментов для аутентификации цифрового контента.
7. Определение критериев для необходимых навыков рабочей силы в области ИИ, включая идентификацию рисков, управление, тестирование и валидацию.
8. Исследование взаимодействия общества и технологий, с акцентом на то, как люди взаимодействуют с ИИ в разных контекстах.
9. Предоставление рекомендаций по управлению взаимозависимостями между ИИ-объектами на протяжении всего их жизненного цикла.
Неопределенности в финансировании
Несмотря на объявление, остаются вопросы о финансировании USAISI. По сообщениям, с момента первоначального объявления Белого дома в ноябре мало что было раскрыто о рабочей структуре или источниках финансирования, особенно с учетом ежегодного бюджета NIST свыше 1,6 миллиарда долларов и известных ограничений ресурсов.
В январе группа сенаторов из обеих партий запросила 10 миллионов долларов у Сенатского комитета по ассигнованиям для помощи в учреждении USAISI, однако статус этого запроса остается неопределенным. Кроме того, законодатели из Комитета по науке Конгресса выразили обеспокоенность по поводу прозрачности NIST и отсутствия конкурентного процесса для предоставления исследовательских грантов, связанных с новым институтом.
Говоря о проблемах финансирования, Румман Чоудхури, ведущий эксперт в области этики ИИ, ранее работавшая в Accenture и Twitter, отметила, что USAISI функционирует на основе невыполненного мандата, выданного указом. Она выразила понимание политических сложностей, мешающих законодательным действиям, при этом отметив значительный недостаток финансирования для этой инициативы.