В течение всего уикенда моя лента в социальных сетях заполнилась скриншотами, мемами и заголовками, которые либо высмеивали, либо критиковали так называемую «пробужденную» модель Gemini AI от Google. Этот резонанс возник после признания Google о том, что компания «не попала в цель», выпустив исторически неточные и вводящие в заблуждение изображения. На платформе X (бывший Twitter) пользователи делились скриншотами результатов работы Gemini, в том числе одним, который абсурдно утверждал: «нельзя однозначно сказать, кто больше негативно повлиял на общество — твиты Элонa или Гитлер». Венчурный капиталист Марк Андриссен особенно увлекался перепостами ошибочного и оскорбительного контента, утверждая, что он был «намеренно запрограммирован с учетом списка людей и идей, которые не нравятся его создателям».
Резкий контраст между первоначальным ажиотажем вокруг запуска Gemini в декабре, когда модель рассматривалась как конкурент GPT-4, и последующей реакцией общественности поразителен. В прошлом году The New York Times сообщила, что Google объявила «красный код» после запуска ChatGPT в ноябре 2022 года, что спровоцировало бум генеративного ИИ, угрожавший затмить техногиганта. Несмотря на сотрудничество с разработчиками технологии, стоящей за ChatGPT, Google была осторожной в отношении своего бренда. Стартапы, такие как OpenAI, казались более готовыми принимать риски для достижения быстрого роста. В ответ на успех ChatGPT генеральный директор Google Сундар Пичай reportedly активно занимался переопределением стратегии компании в области ИИ.
Напряжение между необходимостью быстрой инновации и соблюдением пользовательского удовлетворения, вероятно, способствовало критике Gemini. Google колебалась с выпуском своих более продвинутых крупных языковых моделей (LLM), чтобы избежать последствий, с которыми она сейчас сталкивается: критики за неподобающее поведение ИИ.
Это не первое столкновение Google с контроверзией LLM. В июне 2022 года инженер Блейк Лемойн заявил, что LaMDA, чат-бот технологии Google, обладает сознанием. Лемойн, работавший в команде ответственного ИИ Google, тестировал LaMDA на наличие дискриминационного языка, но в конечном итоге утёк транскрипты своих взаимодействий, в которых спрашивал ИИ о его предпочтительных местоимениях. В то время как Google, так и его исследовательская лаборатория DeepMind, оставались осторожными в области LLM. DeepMind планировала выпустить своего чат-бота Sparrow в частном бета-тестировании, но подчеркнула, что Sparrow «не защищён от ошибок».
Стартапы, такие как OpenAI и Anthropic, не испытывают тех же давлений, что и Google. Как отмечалось в предыдущей статье New York Times, Google испытывает трудности в ответственной реализации продвинутого ИИ, и внутренние обсуждения признают, что меньшие компании действуют с меньшими ограничениями. Google осознала, что ей необходимо взаимодействовать с индустрией, иначе она рискует остаться позади.
Теперь Google полностью привержена генеративному ИИ, однако эта приверженность приносит свои собственные вызовы. В отличие от OpenAI, которая не сталкивается с требованиями акционеров или огромными пользователями, полагающимися на её традиционные продукты, Google связана сложной сетью обязательств.
Все компании, занимающиеся LLM, сталкиваются с такими проблемами, как галлюцинации; всего на прошлой неделе ChatGPT выдал нечеткие ответы и выпустил заявление, в котором признавал, что эта проблема решается. Хотя эти результаты могут не вызывать такую же контроверзию, как у Gemini, ожидания от Google остаются высокими. Будучи устоявшимся игроком в области ИИ, она подвержена большей критике, чем более мелкие фирмы.
Достичь баланса, который удовлетворял бы разнообразные социальные, культурные и политические ценности, практически невозможно. С галлюцинациями как неотъемлемой частью текущей технологии ИИ, Google оказывается в сложной ситуации: необходимо лавировать между требованиями критической аудитории и стремлением к ответственной инновации.