Считаются ли результаты ИИ защищённой речью? Юридический эксперт предупреждает об опасности этой мысли.

Генеративный ИИ и дебаты о свободе слова: юридические аспекты и риски

Генеративный ИИ становится все более сложным, создавая выразительный, информативный и часто убедительный контент. Юридические эксперты в США спорят о том, что результаты работы крупных языковых моделей (LLM) могут быть защищены Первой поправкой. Эта защита может распространяться даже на потенциально вредный контент, выводя такие результаты за рамки государственного контроля.

Призыв к регулированию

Питер Салиб, ассистент профессора права в Центре права Университета Хьюстона, утверждает, что эффективное регулирование жизненно важно для избежания катастрофических последствий от контента, созданного ИИ. Его идеи будут представлены в предстоящем выпуске Washington University School of Law Review.

«Защищенная речь — это священная категория конституции», — объясняет Салиб, подчеркивая опасения о возможных последствиях, если результаты работы продвинутых моделей, таких как GPT-5, будут признаны защищенными. Этот сценарий может серьезно затруднить наше регулирование этих технологий.

Аргументы в поддержку ИИ как защищенной речи

Год назад юридический журналист Бенжамин Уиттес заявил, что мы, возможно, предоставили «права Первой поправки» таким машинам, как ChatGPT. Он утверждает, что эти ИИ-системы «несомненно выразительны» и производят контент, схожий с речью, генерируя текст, изображения и взаимодействуя в диалогах.

Уиттес отметил, что хотя контент ИИ может быть производным, Первая поправка защищает именно выражение, а не оригинальность. Салиб подчеркивает, что многие ученые начинают признавать, что результаты работы ИИ достаточно близки к речи, чтобы заслуживать защиту.

Некоторые утверждают, что эти результаты представляют собой защищенную речь человеческих программистов, в то время как другие уверены, что они принадлежат корпоративным владельцам систем ИИ, таким как ChatGPT. Однако Салиб argues, что «выходы ИИ не представляют собой сообщения от кого-либо, обладающего правами Первой поправки; это не человеческие выражения».

Возникающие риски выходов ИИ

Развитие ИИ стремительно, что приводит к созданию более мощных систем, используемых автономно и непредсказуемо. Салиб, консультируя Центр безопасности ИИ, warns, что генеративный ИИ может представлять серьезные риски, включая синтез смертоносного химического оружия и атаки на критическую инфраструктуру.

«Существуют убедительные эмпирические данные о том, что в ближайшем будущем генеративные системы ИИ будут представлять значительные риски для жизни людей», — заявляет он, предвидя потенциальные сценарии, такие как биотерроризм и автоматизированные политические убийства.

ИИ: речь, но не человеческая

Мировые лидеры начинают принимать регулирования, направленные на обеспечение безопасной и этичной работы ИИ. Эти законы могут потребовать от ИИ-систем воздерживаться от создания вредного контента, что может восприниматься как цензура речи.

Салиб указывает, что если выходы ИИ являются защищенной речью, любое регулирование столкнется с строгой конституционной проверкой, допускающей регулирование лишь в случае непосредственной угрозы.

Он подчеркивает различие между выходами ИИ и человеческой речью. В то время как традиционное программное обеспечение часто отражает человеческие намерения, генеративный ИИ нацелен на создание любого контента, не имея конкретного коммуникативного намерения.

Права корпоративной речи и регулирование

Корпорации, хотя и не являются людьми, обладают производными правами речи. Салиб утверждает, что права корпораций зависят от прав человеческих создателей. Если выходы LLM не соответствуют требованиям защищенной речи, было бы нелогично, что они получают защиту, будучи распространенными корпорациями.

Для эффективного смягчения рисков Салиб выступает за регулирование выходов ИИ, а не за ограничение генеративных процессов систем. Текущие LLM не могут быть полностью контролируемыми или запрограммированными для избежания вредных выходов из-за своей сложности и непредсказуемости.

Успешные регулирования должны сосредоточиться на характере выходов ИИ — определяя, является ли контент модели достаточно безопасным для выпуска. Такой подход стимулирует ИИ-компании приоритизировать безопасность в процессе разработки.

В конечном итоге, «законы должны быть разработаны для предотвращения обмана и вреда людям», — подчеркивает Салиб, указывая на критическую необходимость осторожного законодательного действия в условиях нарастающих возможностей ИИ.

Most people like

Find AI tools in YBX

Related Articles
Refresh Articles