Законодательство ЕС о ИИ, ожидаемое как знаковый документ, сталкивается с неопределенностью из-за споров о регулировании базовых моделей — масштабных ИИ, таких как GPT-4, Claude и Llama.
Недавно правительства Франции, Германии и Италии выступили за ограниченное регулирование базовых моделей, что многие связывают с значительным лоббированием со стороны крупных технологических компаний и компаний с открытым исходным кодом, таких как Mistral, под руководством Седрика О, бывшего французского министра цифровых технологий. Критики утверждают, что такой подход может подорвать целостность Закона ЕС о ИИ.
Сторонники более жесткого регулирования базовых моделей ответили решительно. Коалиция немецких и международных экспертов в области ИИ, включая известных исследователей Джеффри Хинтона и Йошуа Бенджио, недавно опубликовала открытое письмо, в котором призвали немецкое правительство не освобождать эти модели от Закона ЕС о ИИ, предостерегая, что такое исключение угрожает общественной безопасности и наносит вред европейскому бизнесу.
Кроме того, французские эксперты внесли свой вклад в обсуждение, опубликовав совместную статью в Le Monde, в которой выразили решительное несогласие с попытками крупных технологий ослабить это важное законодательство на финальных этапах.
Так почему же Закон ЕС о ИИ сталкивается с сопротивлением на таком продвинутом этапе? Прошло более двух с половиной лет с момента предложенного первоначального проекта и после обширных переговоров Закон сейчас находится на стадии трилога, где законодательные органы ЕС завершают детали законопроекта. Европейская комиссия надеется принять Закон о ИИ до конца 2023 года, до выборов в Европейский парламент в 2024 году.
Недавние события в OpenAI дают представление о внутренних динамиках, влияющих на эти обсуждения. После драматического переворота в совете директоров, когда генеральный директор Сэм Олтман был временно уволен, различные мнения внутри организации отражали более широкую дискуссию о регулировании ИИ в ЕС. Одни члены совета придавали приоритет коммерческим возможностям и разработке искусственного общего интеллекта (AGI), в то время как другие выражали глубокие опасения по поводу безопасности высокорисковых технологий.
Члены совета, выступавшие за осторожность, были связаны с движением эффективного альтруизма, которое также оказало влияние на лоббирование вокруг Закона ЕС о ИИ. Отчеты показывают, что это сообщество выделило значительные ресурсы для повышения осведомленности о существующих рисках, связанных с ИИ.
В то же время крупные технологии, включая OpenAI, активно лоббируют против строгих регуляций. Сэм Олтман, публично выступая за глобальное управление ИИ, стремился ослабить некоторые положения предложенных регуляций ЕС, чтобы облегчить соблюдение требований для своей компании.
Гэри Маркус подчеркнул эти события, утверждая, что хаос в OpenAI подчеркивает необходимость строгого надзора, а не предоставления крупным технологиям возможности саморегулирования. Он поддерживает многоуровневый подход Европейского парламента, заявляя, что упрощение ключевых компонентов Закона ЕС о ИИ до уровня саморегулирования приведет к серьезным глобальным последствиям.
Брандо Бенифеи, ведущий переговорщик Европейского парламента, высказал ту же мысль, утверждая, что непредсказуемость действий Олтмана иллюстрирует опасности полагания на добровольные соглашения отрасли.
Находится ли Закон ЕС о ИИ действительно под угрозой? По словам немецкого консультанта Бенедикта Конха, текущие переговоры имеют решающее значение, и следующий трилог запланирован на 6 декабря. Он предостерегает, что отсутствие соглашения может серьезно подорвать амбиции ЕС как мирового лидера в регулировании ИИ.