В редком случае Meta, ЛеКун раскритиковал OpenAI и лауреатов премии Тьюринга.

Главный научный сотрудник Meta по искусственному интеллекту Ян ЛеКун резко раскритиковал видных лидеров ИИ, выступающих за регулирование из-за страха, что ИИ может стать экзистенциальной угрозой человечеству, особенно на фоне подготовки Великобритании к первому глобальному саммиту ИИ на этой неделе. В посте в X (прежний Twitter) ЛеКун открыто отверг эти апокалиптические сценарии как необоснованные. "Боязни конца света, которые вы распространяете, абсурдны," заявил он. "Мощные системы ИИ, действующие в рамках четко сформулированных целей и имеющие соответствующие контрольные механизмы, безопасны и управляемы, ведь мы устанавливаем эти параметры."

ЛеКун подчеркивает, что современные автогрегрессионные языковые модели (LLM) лишены этих направляющих целей и предостерегает от экстраполяции их текущих ограничений на будущие системы ИИ. Он также обвинил лидеров трех крупных ИИ-компаний — генерального директора OpenAI Сэма Альтмана, генерального директора Google DeepMind Дэмиса Хассабиса и генерального директора Anthropic Дарио Амодеи — в сговоре с целью удержания закрытых моделей ИИ, утверждая: "Альтман, Хассабис и Амодеи находятся в авангарде интенсивного корпоративного лоббирования, направленного на захват регуляторных рамок в индустрии ИИ."

Обратившись к своим коллегам-победителям Тьюринга, он бросил вызов профессору MIT Максу Тегмарку, а также Джеффу Хинтону и Иошуа Бенгио, утверждая, что они непреднамеренно предоставляют аргументы сторонникам ограничений на открытые исследования и разработки ИИ. ЛеКун выступает за открытые исследования в ИИ как ключевой способ демократизировать доступ к технологиям, подчеркивая, что подход Meta сосредоточен на инициативах с открытым исходным кодом, что особенно проявляется в их ведущей языковой модели Llama 2.

Несмотря на опасения правительства США, что открытый ИИ может дать злоумышленникам усиливающуюся силу, ЛеКун считает, что ограничение доступа к моделям ИИ контрпродуктивно. "Если ваши кампании, движимые страхом, окажутся успешными, это неизбежно приведет к катастрофе: концентрации контроля над ИИ в руках нескольких компаний. Большинство наших академических коллег в подавляющем большинстве поддерживают открытые исследования ИИ. Очень немногие одобряют представленные вами апокалиптические сценарии."

ЛеКун настаивает на том, что открытые платформы ИИ должны стать нормой для стимулирования разнообразных вкладов и демократического участия в этой области. "В будущем, где системы ИИ воплотят коллективные знания и культуру человечества, важно, чтобы платформы оставались с открытым исходным кодом и были доступны. Эта открытость необходима для того, чтобы платформы точно отражали весь спектр человеческого опыта и понимания," объяснил он. "Вклады должны быть краудсорсинговыми, как в Википедии, что невозможно без открытых платформ."

Он предостерег, что строгие регулирования могут подавить открытый ИИ, что приведет к монополистическому контролю над платформами ИИ всего несколькими компаниями с Западного побережья США и Китая. "Какие последствия это будет иметь для демократии и культурного разнообразия? Это то, что беспокоит меня на самом деле."

Критические комментарии ЛеКуна прозвучали на фоне сообщений о том, что предстоящий саммит в Великобритании в основном сосредоточится на рисках, связанных с ИИ. В ответ на эти опасения он пошутил в Twitter о том, что премьер-министр Великобритании подхватил "Экзистенциальный фаталистический риск от иллюзии ИИ (EFRAID)," с надеждой, что это не распространится на других мировых лидеров. Хотя его пригласили на саммит, его замечания вызвали споры с Тегмарком, разжигая дальнейшие обсуждения на эту тему.

Дискуссия усилилась после того, как Хинтон, которого часто называют "крестным отцом ИИ", 27 октября предупредил, что компании планируют разрабатывать модели с использованием экспоненциально больших вычислительных мощностей в ближайшем будущем, вызывая озабоченность по поводу отсутствия регуляций, управляющих их возможностями. ЛеКун ответил на утверждение Хинтона, подчеркивая, что если будущие системы ИИ будут следовать существующим архитектурам, они могут достичь высоких уровней знаний, но при этом будут лишены рассуждений, изобретательности и понимания физического мира.

"Будущие системы должны принимать инновационные архитектуры, которые позволят им рассуждать, планировать и действовать в рамках четко определенных целей и контрольных механизмов," утверждает он. "Эти целенаправленные структуры обеспечат безопасность и контроль, поскольку мы определяем их цели, предотвращая любые намерения доминировать." Он решительно не согласен с утверждением, что продвинутые системы ИИ неизбежно будут стремиться к подавлению человечества, утверждая, что такие убеждения изначально ошибочны.

Most people like

Find AI tools in YBX

Related Articles
Refresh Articles