Губернатор Калифорнии Гавин Ньюсом недавно наложил вето на законопроект SB 1047, который, по мнению многих, мог значительно повлиять на развитие искусственного интеллекта в штате и стране. Это вето, объявленное в воскресенье, даёт AI-компаниям возможность продемонстрировать свою приверженность проактивной защите пользователей от рисков, связанных с ИИ.
Законопроект SB 1047 предлагал обязать компании искусственного интеллекта внедрять "аварийные выключатели" для своих моделей, разрабатывать официальные протоколы безопасности и привлекать третьих сторон для аудита безопасности перед началом обучения моделей. Кроме того, законопроект давал генеральному прокурору Калифорнии доступ к аудиторским отчетам и полномочия на судебные иски против разработчиков ИИ.
Некоторые ветераны отрасли выразили опасения, что данное законодательство может затормозить развитие искусственного интеллекта, и многие поблагодарили Ньюсома за вето, утверждая, что оно поможет защитить развитие с открытым исходным кодом в будущем. Ян Лекун, главный научный сотрудник AI в Meta и активный критик SB 1047, описал это решение как "разумное" в социальной сети X (ранее Twitter).
Выдающийся инвестор в AI Марк Андриссен охарактеризовал вето Ньюсома как поддержку "динамичности Калифорнии, экономического роста и свободы вычислений". Другие лидеры отрасли выразили схожие мнения, подчеркивая необходимость регулирования, которое не подавляет малые компании и модели.
"Основная проблема не в самих моделях ИИ, а в их приложениях," — отметил Майк Капон, генеральный директор Qlik. Он выделил важность фокуса на контексте и случаях использования, а не на самой технологии. Капон призвал к созданию регулирующих рамок для обеспечения безопасного и этичного использования.
Эндрю Нг, соучредитель Coursera, также похвалил вето как "прокреативные", утверждая, что оно защитит инициативы с открытым исходным кодом.
Тем не менее, существуют и оппозиционные мнения. Дин Болл, эксперт в области политики ИИ и технологий в Центре Меркатус при университете Джорджа Мейсона, заявил, что вето критически важно для Калифорнии и Америки. Он отметил, что пороговые значения размера моделей в законопроекте устарели и не учитывают новые модели, такие как OpenAI.
Лав Варшни, доцент Университета Иллинойс, раскритиковал законопроект за наказание оригинальных разработчиков за последующее использование их технологий. Он предложил модель совместной ответственности, которая позволяет инновациям развиваться в открытом формате.
Это вето предоставляет разработчикам ИИ возможность улучшить свои политики и практики безопасности. Кьелл Карлссон, глава стратегии ИИ в Domino Data Lab, призвал компании проактивно решать риски ИИ и внедрять надежное управление на всех этапах жизненного цикла ИИ.
Наврина Сингх, основатель платформы управления ИИ Credo AI, отметила необходимость тонкого понимания необходимых регуляций, выступая за то, чтобы управление стало центральным аспектом инноваций, сохраняя доверие и прозрачность на рынке.
С другой стороны, не все реакции были положительными. Группы по законодательной политике осудили вето, и Николь Гилл, соучредитель Accountable Tech, заявила, что оно ставит интересы крупных технологий выше общественной безопасности. Она утверждала, что вето закрепляет существующий порядок, позволяя крупным компаниям получать прибыль без ответственности.
Институт политики ИИ также поддержал эту обеспокоенность, а исполнительный директор Даниэль Колсон раскритиковал решение как "необоснованное и безответственное".
Калифорния, где находится большинство национальных компаний в области ИИ, не имеет надежных регуляций, соответствующих общественному спросу на надзор. В настоящее время нет федеральных постановлений, касающихся генеративного ИИ, ближайшим из которых является указ президента Байдена, определяющий рамки использования ИИ правительственными агентствами и призывающий компании добровольно отправлять модели на оценку.
Администрация Байдена также стремится отслеживать модели с открытыми весами для выявления потенциальных рисков, подчеркивая важность текущих дискуссий о безопасности и регулировании ИИ.