Исследователи и ученые MIT опубликовали информативный документ, в котором призывают правительство США расширить регуляторную основу для искусственного интеллекта (ИИ). Документ под названием «Создание безопасного и процветающего сектора ИИ» длиной в 10 страниц подчеркивает необходимость адаптации существующих правовых норм к технологиям ИИ. В частности, предлагается интеграция ИИ в регулирование здравоохранения, особенно в области ИИ-поддержанных диагнозов. Кроме того, авторы подчеркивают, что ИИ должен подчиняться тем же принципам надзора, которые регулируют государственные операции, такие как полицейская практика, определение залога и процессы найма.
Исследователи утверждают, что любые законы, регулирующие человеческую деятельность, должны также распространяться на системы ИИ. Они заявляют: «Если человеческая деятельность без использования ИИ регулируется, то использование ИИ также должно регулироваться». Этот принцип обеспечит соответствие разработки, развертывания и использования систем ИИ тем же стандартам, которые установлены для человеческих действий в соответствующих сферах.
Документ выделяет высокие риски применения ИИ, которые уже находятся в поле зрения существующих законов, как ключевые точки фокуса. Например, регулирование автономных автомобилей, которые должны соответствовать тем же стандартам, что и управляемые людьми транспортные средства, иллюстрирует, как существующие нормы могут быть эффективно применены.
Авторы также утверждают, что разработчики универсальных систем ИИ, таких как ChatGPT, должны быть обязаны четко определить назначение своих технологий до их выпуска. Эта ответственность позволит регуляторам установить конкретные рекомендации по предназначенным использованиям, гарантируя, что разработчики соответствуют указанным параметрам.
Важным аспектом документа является прояснение вопросов, связанных с правами интеллектуальной собственности в контексте ИИ. Авторы предполагают, что необходимо разработать механизмы, помогающие создателям защищаться от потенциальных нарушений, предлагая обязательную маркировку контента, созданного ИИ, как возможное решение.
Документ подчеркивает текущую неясность в том, как существующие регуляторные и правовые рамки применяются в случае использования ИИ. Утверждается: «Неясно, как и применимы ли текущие регуляторные и правовые рамки в контексте ИИ, и соответствуют ли они требованиям». Эта неясность создает сложную среду для поставщиков, пользователей и широкой общественности, которые могут быть не уверены в рисках, связанных с технологиями ИИ. Авторы подчеркивают важность дополнительной ясности и надзора для содействия ответственному развитию и использованию ИИ, в конечном итоге максимизируя его преимущества для всех американцев.
По словам Дэна Хаттеноучера, декана Шварцман-колледжа вычислительных технологий MIT: «Как страна, мы уже регулируем много относительно высоких рисков и обеспечиваем там управление. Мы не утверждаем, что это достаточно, но давайте начнем с областей, где человеческая деятельность уже регулируется и которые общество считает высокими рисками. Такой подход к регулированию ИИ – практический путь вперед».
Этот документ совпадает с несколькими другими, которые исследуют различные аспекты ИИ, включая управление крупными языковыми моделями, стратегии ИИ, ориентированные на работников, и маркировку контента, созданного ИИ, что сигнализирует о широкой приверженности к созданию хорошо регулируемого сектора ИИ.