После драматических событий вокруг OpenAI за последние 10 дней — увольнения CEO Сэма Олтмана, назначения CTO Мира Мурати временным CEO, отставки президента Грега Брокмана и угрозы увольнения почти всех сотрудников OpenAI, после чего Олтман был восстановлен в должности перед Днём Благодарения — я ожидал, что праздничные выходные дадут Кремниевой долине возможность отвлечься от шумихи вокруг ИИ и насладиться заслуженным отдыхом.
Однако этого не произошло. В утреннем выпуске новостей на День Благодарения Reuters сообщила, что до временного увольнения Олтмана несколько исследователей OpenAI отправили письмо в правление, предостерегая о «мощном открытии в области искусственного интеллекта», которое, по их мнению, может угрожать человечеству. Эта история быстро набрала популярность в то время, как семьи собирались за праздничным столом. Проект, известный как Q, потенциально мог способствовать развитию AGI (искусственного общего интеллекта), который OpenAI определяет как автономные системы, превосходящие человека в большинстве экономически ценных задач. По данным Reuters, новая модель могла решать определённые математические задачи, и, хотя её способности были на уровне начальной школы, исследователи выражали оптимизм по поводу будущих перспектив Q.
Переход от бурной дискуссии в правлении OpenAI к обсуждению Q заставил меня задуматься о постоянно усиливающемся гипе вокруг ИИ. Я не призываю к длительному перерыву в разработке ИИ, но было бы приятно ненадолго отвлечься от шума, пусть даже на один день. Волнение вокруг Q, похоже, возникло из-за алгоритма, который старший научный сотрудник Nvidia Джим Фан описал как «фантазию», отметив, что ему не хватает реальной основы — ни опубликованных статей, ни статистики, ни осязаемого продукта.
Несмотря на очевидное интеллектуальное влечение и лихую медийную конкуренцию за последние новости, постоянный поток информации может также быть вызван глубинным источником тревоги. Исследование университета Висконсин показывает, что неопределённость относительно потенциальных будущих угроз мешает нам их избежать, что ведет к повышению уровня тревожности. Наши мозги функционируют как «механизмы предвосхищения», используя прошлый опыт для прогнозирования будущего и улучшения результатов. Когда наше предвидение затуманивается неопределённостью, наша способность подготовиться снижается, что способствует возникновению тревоги.
Этот феномен касается не только широкой общественности, но также ведущих исследователей и руководителей в области ИИ. Даже такие гиганты, как Джеффри Хинтон, Ян ЛеКун и Эндрю Нг, сталкиваются с неопределённостью относительно будущего ИИ. Их обсуждения в социальных сетях — хоть и насыщенные интеллектуальными дебатами — мало помогают разобраться в наших тревогах о будущем.
Острые анализы вокруг OpenAI и Q за прошедшую неделю отражают эту коллективную тревогу относительно неопределённой траектории ИИ. Если мы продолжим нашу неумолимую гонку за информацией и подтверждением, мы рискуем упустить основную истину об ИИ: его будущее по своей природе остается неопределённым.
Это не значит, что обсуждения и планы по развитию ИИ не должны продолжаться, но, возможно, мы могли бы позволить себе временно приостановить такие дебаты, чтобы насладиться праздниками. С учётом того, что до Рождества осталось всего четыре недели, может быть, все заинтересованные стороны — эффективные альтруисты, техно-оптимисты, лидеры отрасли и академические исследователи — могут согласиться сделать короткий перерыв от шумихи ИИ, чтобы насладиться немногояком и печеньем. Наша общая тревога о будущем ИИ, наряду с гипом, всё еще подождёт нас после Нового года. Обещаю.