주말 내내 내 소셜 미디어 피드는 Google의 '각성' 제너레이터 AI 모델인 제미니에 대한 조롱과 비판으로 가득 차 있었다. 이 논란은 Google이 역사적으로 부정확하고 오해를 불러일으키는 이미지를 제작했다고 시인한 것에 이어 발생했다. X(구 Twitter)에서는 사용자들이 제미니의 출력물을 캡처한 스크린샷을 공유하며 “엘론이 밈을 트윗한 것보다 히틀러가 사회에 부정적인 영향을 미쳤다고 단정할 수는 없다”는 부조리한 주장을 포함한 사례도 있었다. VC 마크 안드레센은 창조자들이 싫어하는 인물과 아이디어 목록으로 '고의적으로 프로그램'되었다고 주장하며 잘못된 내용을 재탕하는 데 즐거움을 느꼈다.
제미니 출시 초기, GPT-4의 경쟁자로 기대되었던 흥분과 이후의 반발 사이의 극명한 대조는 인상적이다. 지난해 뉴욕타임즈는 Google이 2022년 11월 ChatGPT 출시 이후 ‘코드 레드’를 선언했다고 보도했으며, 이는 기술 대기업에 그림자가 드리우는 생성형 AI 붐을 촉발했다. ChatGPT 개발에 기여한 배경에도 불구하고 Google은 자사 브랜드 보호에 신중했다. OpenAI와 같은 스타트업들은 빠른 성장에 따른 위험을 더 잘 감수하는 것 같았다. ChatGPT의 성공에 대응하여, Google CEO 순다르 피차이는 회사의 AI 전략 재정의에 깊이 관여했다고 전해진다.
빠른 혁신과 사용자 만족 유지의 필요성 간의 긴장은 제미니에 대한 반발에 기여했을 것으로 보인다. Google은 부적절한 AI 출력에 대한 비판을 피하기 위해 더 발전된 대형 언어 모델(LLM) 출시를 주저했다. 이는 Google이 LLM 논란에 처음 직면한 것은 아니다. 2022년 6월, 엔지니어 블레이크 레모인은 Google의 챗봇 기술인 LaMDA가 자각을 갖고 있다고 주장했다. 레모인은 Google의 책임 있는 AI 팀에서 일하며 LaMDA의 차별적인 언어 사용을 테스트했지만, 결국 AI의 선호하는 대명사에 대해 질문한 대화록을 유출했다.
그 당시 Google과 연구소 DeepMind는 LLM 분야에서 신중했다. DeepMind는 Sparrow 챗봇을 비공식 베타로 출시할 계획이었지만, Sparrow가 “실수를 할 수 있다”고 강조했다. OpenAI와 Anthropic 같은 스타트업은 Google이 직면한 같은 압박을 받지 않는다. 이전의 뉴욕타임즈 기사에 따르면, Google은 고급 AI를 책임감 있게 배치하는 데 어려움을 겪고 있으며, 소규모 기업들이 더 적은 제약을 받고 있다는 내부 논의도 있었다. Google은 산업과의 교류가 절실하다는 걸 인식하게 되었다.
현재 Google은 생성형 AI에 전념하고 있지만, 이 약속은 새로운 도전 과제를 동반한다. OpenAI는 주주 요구나 기존 제품에 의존하는 방대한 사용자 기반의 압박이 없는 반면, Google은 복잡한 책임망을 가지고 있다. 모든 LLM 기업은 환각과 같은 문제에 직면해 있으며, 지난주 ChatGPT는 일관되지 않은 응답을 생산하고 이 문제가 해결되고 있다고 인정하는 성명을 발표했다. 이러한 출력물이 제미니만큼 논란을 일으키지는 않겠지만, Google에 대한 기대치는 여전히 높다. AI 분야의 기존 플레이어로서, Google은 소규모 기업들이 받지 않는 검토의 대상이 된다.
다양한 사회적, 문화적, 정치적 가치를 충족하는 균형을 이루는 것은 사실상 불가능하다. 환각이 현재 AI 기술의 본질적인 부분이기 때문에, Google은 비판적인 청중의 요구를 충족시키면서도 책임감 있게 혁신해야 하는 어려운 상황에 처해 있다.