После Давоса 2024: Превращение шума вокруг ИИ в осязаемую реальность

Искусственный интеллект стал одной из ключевых тем на Давосе 2024, где провели более двух десятков сессий, посвященных его последствиям в различных областях, от образования до регулирования, как сообщает Fortune. Среди участников были выдающиеся лидеры в сфере ИИ, такие как генеральный директор OpenAI Сэм Алтман, генеральный директор Inflection AI Мустафа Сулейман, пионер ИИ Эндрю Нг, главный научный сотрудник Meta Ян ЛеКун и генеральный директор Cohere Эйдан Гомес.

Обсуждение на Давосе претерпело значительное изменение по сравнению с восторженным настроением 2023 года. Как отметил Крис Падилла, вице-президент IBM по государственным и регуляторным вопросам, в интервью The Washington Post: «В прошлом году атмосфера была полна удивления, сейчас же речь идет о выборе рисков и обеспечении доверия к ИИ».

На этом году мероприятия были озвучены ключевые проблемы, включая потенциальную угрозу дезинформации, displacement рабочих мест и растущее экономическое неравенство между богатыми и бедными странами. Наиболее актуальной проблемой оказалась угроза дезинформации, способствующая технологии deepfake — манипулированные фотографии, видео и аудио, искажающие реальность и подрывающие общественное доверие. Недавний инцидент перед праймериз в Нью-Гемпшире, когда робоколы имитировали голос президента Джо Байдена, продемонстрировал эту угрозу.

Как отметила профессор Карнеги-Меллонского университета Кэтлин Карли, «это лишь верхушка айсберга в плане потенциального подавления голосования или атак на целостность выборов». Консультант по корпоративному ИИ Рувен Коэн также предостерег о том, что достижения в сфере ИИ могут привести к наплыву контента deepfake в ходе выборов 2024 года.

Несмотря на продолжающиеся исследования, надежный метод обнаружения deepfake пока не найден. Как сообщает Джереми Кахн в Fortune, «нам срочно нужно решение; недоверие вредно для демократии».

Это изменение акцента от оптимизма к осторожности побудило Сулеймана выступить с предложением стратегии «холодной войны» для борьбы с угрозами, связанными с ИИ. Он подчеркнул, что по мере доступности технологий ИИ они могут быть неправильно использованы недоброжелательными сторонами, что приведет к хаосу, который опередит усилия по проверке.

Опасения по поводу ИИ существуют уже десятилетия, что ярко показано в фильме 1968 года «2001 год: Космическая одиссея». Даже потребительские технологии, такие как игрушка Furby, вызывали тревогу из-за уязвимостей в безопасности, что привело к запрету NSA на их использование из-за опасений, что они могут служить устройствами слежения.

Обсуждение обострилось с предсказаниями о том, что Общий ИИ (AGI) может быть достигнут в ближайшее время. Хотя AGI, определяемый как ИИ, превосходящий человеческий интеллект в разных задачах, остается спорной темой, такие фигуры, как Алтман и Гомес, выражают оптимизм по поводу его скорого появления, тогда как другие, включая ЛеКуна, призывают к осторожности, утверждая, что потребуются значительные прорывы.

Общественное мнение о ИИ остается смешанным; как показал Барометр доверия Edelman 2024 года, 35% респондентов отвергают ИИ, в то время как 30% принимают его. Осведомленность о потенциальных преимуществах ИИ сдерживается опасениями по поводу его угроз. Люди более склонны принимать достижения ИИ, когда их направляют эксперты и уверяют в контроле над их последствиями.

В конечном итоге путь вперед заключается не только в быстрой реакции на развитие ИИ, но и в сбалансированном взгляде на долгосрочные последствия. Как знаменитый сказал Рой Амара: «Мы склонны переоценивать влияние технологии в краткосрочной перспективе и недооценивать его в долгосрочной».

Несмотря на продолжающиеся исследования и испытания, широкое применение ИИ не гарантировано. Гэри Гроссман, генеральный вице-президент практики технологий в Edelman и глобальный руководитель Центра превосходства ИИ Edelman, предсказал надвигающийся «пик разочарования» в 2024 году, когда ожидания могут не совпадать с реальностью.

Этот год может стать критическим для оценки трансформационного потенциала ИИ. Поскольку организации исследуют генеративный ИИ для личного и профессионального использования, важно соединить технологические достижения с ощутимой ценностью. По словам генерального директора Accenture Джули Суит, мастер-классы, которые теперь проводятся для руководителей уровнем C, представляют собой важные шаги к реализации потенциала ИИ.

Расширяя свои усилия в сложном мире ИИ, разумные решения и инновационное мышление будут ключевыми для обеспечения того, чтобы ИИ увеличивал человеческий потенциал, сохраняя наши общие ценности и целостность. Ответственность за формирование будущего, в котором ИИ улучшает человеческий опыт, а не диктует его, лежит на нас.

Most people like

Find AI tools in YBX

Related Articles
Refresh Articles