Белый дом запускает новый консорциум по безопасности искусственного интеллекта: более 200 ведущих компаний сотрудничают для тестирования и оценки AI-моделей.

Администрация Байдена запускает консорциум по безопасности ИИ в США

После назначения старшего помощника Белого дома директором новосозданного Института безопасности ИИ в США (USAISI) при Национальном институте стандартов и технологий (NIST), администрация Байдена представила Консорциум по безопасности ИИ в США (AISIC), который считается «первым в своем роде консорциумом, посвященным безопасности искусственного интеллекта».

В состав этого сотрудничества входят более 200 организаций, включая крупнейшие технологические компании, такие как Google, Microsoft и Amazon, а также лидеры в области крупных языковых моделей (LLM), такие как OpenAI, Cohere и Anthropic. Консорциум также включает исследовательские лаборатории, академические группы, организации гражданского общества, государственные и местные органы власти, а также некоммерческие организации.

Согласно сообщению на блоге NIST, AISIC представляет собой крупнейшее объединение команд тестирования и оценки на сегодняшний день, целью которого является establishment оснований измерительной науки в области безопасности ИИ. Работая под эгидой USAISI, консорциум будет поддерживать ключевые инициативы, изложенные в указе президента Байдена, включая разработку руководящих принципов для red-teaming, оценки возможностей, управления рисками, протоколов безопасности и защиты синтетического контента.

Подробности формирования

Объявление о создании консорциума состоялось 31 октября 2023 года, одновременно с указом президента Байдена о ИИ. На сайте NIST было указано, что участие открыто для организаций, которые могут внести свой вклад в виде экспертизы, продуктов, данных или моделей. Выбранные участники должны уплатить ежегодный взнос в размере 1000 долларов и подписать Соглашение о совместных научных исследованиях и разработках (CRADA) с NIST.

Руководящие принципы безопасности ИИ

Члены консорциума сосредоточатся на нескольких ключевых направлениях:

1. Создание инструментов и лучших практик для безопасной и надежной разработки и развертывания ИИ.

2. Установление рекомендаций по идентификации и оценке потенциально опасных возможностей ИИ.

3. Продвижение практик безопасной разработки для генеративного ИИ и решение вопросов двойного назначения для базовых моделей, с обеспечением конфиденциальности в машинном обучении.

4. Обеспечение ресурсов для создания и поддержания тестовых сред.

5. Разработка практик эффективного red-teaming и методов машинного обучения с обеспечением конфиденциальности.

6. Проектирование инструментов для аутентификации цифрового контента.

7. Определение критериев для необходимых навыков рабочей силы в области ИИ, включая идентификацию рисков, управление, тестирование и валидацию.

8. Исследование взаимодействия общества и технологий, с акцентом на то, как люди взаимодействуют с ИИ в разных контекстах.

9. Предоставление рекомендаций по управлению взаимозависимостями между ИИ-объектами на протяжении всего их жизненного цикла.

Неопределенности в финансировании

Несмотря на объявление, остаются вопросы о финансировании USAISI. По сообщениям, с момента первоначального объявления Белого дома в ноябре мало что было раскрыто о рабочей структуре или источниках финансирования, особенно с учетом ежегодного бюджета NIST свыше 1,6 миллиарда долларов и известных ограничений ресурсов.

В январе группа сенаторов из обеих партий запросила 10 миллионов долларов у Сенатского комитета по ассигнованиям для помощи в учреждении USAISI, однако статус этого запроса остается неопределенным. Кроме того, законодатели из Комитета по науке Конгресса выразили обеспокоенность по поводу прозрачности NIST и отсутствия конкурентного процесса для предоставления исследовательских грантов, связанных с новым институтом.

Говоря о проблемах финансирования, Румман Чоудхури, ведущий эксперт в области этики ИИ, ранее работавшая в Accenture и Twitter, отметила, что USAISI функционирует на основе невыполненного мандата, выданного указом. Она выразила понимание политических сложностей, мешающих законодательным действиям, при этом отметив значительный недостаток финансирования для этой инициативы.

Most people like

Find AI tools in YBX