3월 31일, 최근 보고서에 따르면 AI 챗봇 기술의 발전에도 불구하고 공통적인 문제가 지속되고 있습니다. 바로, 이 시스템들이 종종 사실과 무관한 답변을 제공한다는 것입니다. 이러한 현상은 "환각"이라고 불리며, AI가 믿을 수 있을 것처럼 보이는 잘못된 정보를 생성할 때 발생합니다.
이 문제를 해결하기 위해 Google DeepMind와 스탠포드 대학의 연구자들은 Search-Enhanced Fact Evaluator(그러니까 SAFE)라는 도구를 개발했습니다. 이 도구는 대규모 언어 모델을 활용하여 챗봇이 생성한 긴 응답을 사실 확인합니다. 연구 결과, 실험 코드 및 데이터셋이 공개되었습니다.
SAFE 시스템은 AI가 생성한 답변의 정확성과 진위를 검증하기 위해 네 단계의 과정을 거칩니다. 첫째, 응답을 검증이 필요한 개별 주장으로 나눕니다. 둘째, 필요한 경우 이러한 주장을 수정합니다. 셋째, 주장을 구글 검색 결과와 비교합니다. 마지막으로, 각 사실이 원래의 질문과 얼마나 관련이 있는지를 평가합니다.
시스템의 효과를 평가하기 위해 연구자들은 약 16,000개의 사실을 포함하는 데이터셋인 LongFact를 만들었고, Claude, Gemini, GPT, PaLM-2를 포함한 13개의 대규모 언어 모델에서 SAFE를 테스트했습니다. 100개의 논란이 있는 사실을 분석했을 때, SAFE는 추가 검토 후 76%의 정확도를 달성했습니다. 또한, 이 프레임워크는 수동 주석보다 20배 이상의 비용 효율성을 보여주었습니다. 이러한 발전은 AI 챗봇의 신뢰성을 높이는 중요한 단계를 의미합니다.