지난주 OpenAI는 GPT Store를 출시하여 제3자 제작자들이 맞춤형 챗봇(GPTs)을 선보이고 수익화할 수 있는 플랫폼을 제공했습니다. 그러나 2024년 1월에 들어서면서 OpenAI의 혁신은 계속되고 있습니다.
월요일, OpenAI는 AI 도구에 대한 새로운 안전장치를 설명하는 블로그 포스트를 발표했으며, 특히 이미지 생성 모델 DALL-E와 ChatGPT의 인용 관행에 중점을 두었습니다. 이 이니셔티브는 올해 남은 여러 선거를 앞두고 잘못된 정보와 싸우는 것을 목표로 하고 있습니다. 블로그에서는 “선거의 무결성을 보호하기 위해서는 민주적 과정의 모든 분야에서 협력해야 하며, 우리의 기술이 이 과정에 해를 끼치지 않도록 하려 합니다.”라고 설명했습니다.
현재의 안전장치 중 하나는 사용자가 맞춤형 GPT와 관련된 잠재적 위반 사항을 신고할 수 있는 “신고” 기능입니다. 여기에는 실제 인물이나 기관을 가장하는 경우가 포함되며, 이는 OpenAI의 사용 정책을 위반하게 됩니다.
예상되는 새로운 조치
OpenAI의 블로그에 따르면, 사용자는 곧 전 세계의 실시간 뉴스 보도를 이용할 수 있게 되며, 이는 출처 표시와 링크를 포함하여 ChatGPT를 통해 얻는 정보의 신뢰성을 높일 것입니다. 이 개선은 Associated Press 및 Politico와 Business Insider의 모회사 Axel Springer와 같은 신뢰할 수 있는 매체와의 파트너십에 부합합니다.
특히 OpenAI는 콘텐츠 출처와 진위 인증을 위한 연합(C2PA)에서 이미지 증명서를 도입할 예정입니다. 이 이니셔티브는 AI로 생성된 콘텐츠에 암호화된 디지털 워터마크를 적용하여 미래에 이를 감지할 수 있도록 보장하는 것입니다. OpenAI는 DALL-E 3 이미지에 C2PA 증명서를 통합할 계획이며, 구체적인 날짜는 아직 발표되지 않았습니다.
또한 OpenAI는 DALL-E가 생성한 이미지를 탐지하기 위한 “출처 분류기” 도구를 미리 공개했습니다. 이 도구는 사용자가 이미지를 업로드하여 AI 출처를 확인할 수 있게 합니다. 블로그에서는 “우리의 내부 테스트에서 일반적인 수정 작업을 거친 이미지에서조차 긍정적인 결과가 나타났습니다.”라고 언급하며, “이 도구를 기자, 플랫폼, 연구자 등 최초의 테스트 그룹에 조만간 출시할 계획입니다.”라고 밝혔습니다.
정치 캠페인에서 AI의 역할
미국의 공화당 전국위원회(RNC)와 같은 정치 조직들이 상대방을 가장하는 메시징에 AI를 점점 더 많이 사용하는 가운데, OpenAI의 안전장치가 예상되는 디지털 잘못된 정보를 억제하는 데 얼마나 효과적일지는 불확실합니다. 그럼에도 불구하고 OpenAI는 도구의 남용에 대한 우려 속에서 진실과 정확성을 지지하는 입장을 분명히 하고 있습니다.