새로운 AI 비디오 생성 모델 Sora의 인상적인 포토리얼리즘 데모를 공개한 지 며칠 후, OpenAI는 비상 사태에 직면했습니다.
2024년 2월 20일, ChatGPT는 비논리적이고 엉뚱한 출력을 생성하기 시작하여 사용자들의 불만을 X(구 Twitter)에서 표출하게 했습니다.
일부 응답은 ChatGPT의 출력이 영어와 스페인어를 기이하게 혼합하여, 사용자가 입력한 내용을 충분히 반영하지 않은 이해할 수 없는 문장을 만들어내는 모습을 담고 있었습니다.
한 주의 깊은 사용자는 이러한 무작위 단어 조합을 Jeff VanderMeer의 2014년 소설 《Annihilation》에서 묘사된 불안한 "기괴한 공포" 외계 낙서에 비유했습니다. 이 비교는 비인간적인 지능의 불협화음을 감지한 독자들에게 공감을 불러일으켰습니다.
일부 사용자는 인기 있는 SF 내러티브인 《터미네이터》와 《매트릭스》를 연상시키면서 "로봇 반란"을 농담삼아 언급했지만, 다른 이들은 이를 단순한 시스템 오류로 치부했습니다. 많은 이들은 이러한 오류가 글쓰기 및 코딩 작업에서 생성 AI 도구의 신뢰성을 위협한다고 경고했습니다.
2월 20일 오후 3시 40분(태평양 표준시)에 OpenAI는 자사 공개 상태 대시보드에서 문제를 인정했습니다. 그로부터 7분 후인 오후 3시 47분, 회사는 문제를 파악하고 적극적으로 해결 중이라고 보고했습니다. 오후 5시가 가까워지자 그들은 상황을 지속적으로 모니터링하고 있음을 확인했습니다.
다음 날 오전 10시 30분, X의 인증된 ChatGPT 계정은 사용자들에게 "어제 조금 엉켰지만 다시 정상으로 돌아올 것"이라고 안심시켰습니다.
이후 ChatGPT 계정은 OpenAI 웹사이트의 후속 업데이트를 공유하며 "사용자 경험 최적화로 인해 모델의 언어 처리에 버그가 발생했다"며 수정이 완료되었다고 밝혔습니다.
비록 신속하게 해결되었지만, 이번 사건은 ChatGPT 및 GPT-4, GPT-3.5와 같은 OpenAI 제품의 신뢰성과 완전성에 대한 우려를 불러일으켰습니다. 특히 교통, 의료 및 엔지니어링과 같은 중요한 분야에서의 작업에서 더욱 그러합니다.
합리적인 질문은 다음과 같습니다: 앞으로 유사한 문제를 어떻게 예방할 수 있을까요?