В пятницу Google принес извинения за неточные и потенциально оскорбительные изображения, созданные новым инструментом AI Gemini. Это заявление последовало после сообщений пользователей о том, что Gemini генерировал исторически недостоверные и расово разнообразные изображения для запросов, связанных с такими фигурами, как солдаты нацистов и отцы-основатели США.
В блоге старший вице-президент Google Прабхакар Рагаван признал, что некоторые сгенерированные изображения были "неточными или даже оскорбительными", признав, что компания "не достигла цели".
Рагаван прояснил, что Google стремился устранить предвзятости, обеспечив широкий спектр представления людей в открытых запросах. Однако он подчеркнул, что запросы, требующие конкретного исторического контекста, должны приводить к точным представлениям.
«Например, если вы попросите изображение футбольных игроков или кого-то, кто выгуливает собаку, разнообразные изображения уместны. Вероятно, вам не нужны изображения только одной этнической группы», — объяснил он. «Наоборот, если вы запрашиваете изображения конкретных людей или групп в определенных исторических контекстах, ответ должен точно отражать ваш запрос».
Проблемы предвзятости и разнообразия в AI
Этот инцидент подчеркивает продолжающуюся проблему предвзятости в системах AI, которые могут непреднамеренно усиливать стереотипы. Другие инструменты AI также сталкивались с аналогичными негативными отзывами за отсутствие разнообразия или неподобающие представления. В стремлении к инклюзивности Google, похоже, слишком сильно исправил ситуацию, произведя исторически несоответствующие изображения, такие как расово разнообразные американские сенаторы XIX века и многоэтничные нацистские солдаты, что вызвало насмешки и обвинения в чрезмерной политической корректности со стороны критиков с разных точек зрения.
В ответ на эти проблемы Google временно приостановил возможность Gemini генерировать изображения людей, заявив, что улучшит эту функцию перед повторным запуском.
Глубокие последствия скандала с Gemini
Скандал с Gemini отражает более широкие проблемы в инициативах AI Google. После недавнего запуска компания столкнулась с негативным вниманием не только из-за споров с изображениями, но и из-за рекламного видео, которое преувеличивало возможности Gemini, а также из-за прежних критических замечаний к модели AI, Google Bard.
Пока конкуренты, такие как Microsoft и OpenAI, укрепляют свои позиции, Google испытывает трудности в формировании своей концепции "эпохи Gemini". Быстрые темпы выпусков продуктов AI и ребрендинг — от Bard до Gemini — оставили потребителей в замешательстве.
Эти неудачи подчеркивают проблему согласования исторической точности с разнообразием. Они также выявляют основные слабости стратегии Google. Ранее являясь лидером в области поисковых технологий, Google теперь сталкивается с трудностями в предоставлении согласованных решений AI.
Проблемы отчасти stem из текущей технической философии "делай быстро и ломай вещи". Google поспешно вывел на рынок Gemini и его версии, чтобы конкурировать с такими инструментами, как ChatGPT, но этот поспешный подход только подорвал доверие потребителей. Чтобы восстановить доверие, Google необходимо тщательно продумать дорожную карту развития AI, а не запускать новые эффектные идеи.
Более того, последний инцидент поднимает вопросы о внутренних процессах разработки AI в Google. Предыдущие отчеты указывают на то, что попытки интегрировать этические соображения в AI застопорились. Google должен сосредоточиться на создании инклюзивных и разнообразных команд AI, под руководством лидеров, ориентирующихся на безопасное и ответственное развертывание технологий, а не на быстроту.
Если Google не извлечет уроки из этих ранних ошибок в области AI, он рискует потерять дистанцию еще больше. Пользователи требуют ясности вместо путаницы. Инцидент с Gemini демонстрирует, что Google утратил контроль как над своими AI-результатами, так и над своим сообщением. Возвращение к основным принципам может быть необходимым для восстановления общественного доверия к будущему AI Google.