최근 몇 년 동안 AI 기술의 급속한 발전은 초현실적인 이미지, 비디오, 텍스트 등 AI 생성 콘텐츠의 폭발적인 증가를 가져왔습니다. 그러나 이러한 증가로 인해 허위 정보와 기만에 대한 우려가 커지고 있으며, 현실과 허구를 구별하는 데 어려움이 가중되고 있습니다.
우리는 인공 콘텐츠로 인해 압도당할 우려가 있으며, 이는 정당한 이야기입니다. 2022년 이후 AI 사용자는 총 150억 개 이상의 이미지를 생성했습니다. 이는 인류가 2022년 이전 150년 동안 생산한 양과 견줄 수 있는 놀라운 수치입니다.
AI 생성 콘텐츠의 방대한 양은 우리가 이제 겨우 이해하기 시작한 도전 과제를 제시합니다. 역사학자들은 2023년 이후의 인터넷을 전과 근본적으로 다르게 인식해야 할지도 모릅니다. 이는 원자폭탄 개발이 방사성 탄소 연대학에 미친 영향과 유사합니다. 구글 이미지 검색에서 AI 생성 결과가 점점 더 많이 나타나고 있으며, 이스라엘/가자 분쟁에서 발생한 전범 혐의가 실제로 AI 창작물로 잘못 식별되는 사례도 증가하고 있습니다.
AI 콘텐츠의 서명 삽입
딥페이크는 기계 학습 알고리즘을 사용하여 인간의 표정과 목소리를 모방하는 가짜 콘텐츠를 생성합니다. OpenAI의 텍스트-비디오 모델인 Sora의 최근 공개는 가상 현실이 물리적 현실과 구별될 수 없는 상태에 급속히 다가가고 있음을 강조합니다. 이러한 우려가 커짐에 따라, 기술 대기업들은 AI 생성 콘텐츠의 잠재적 오용을 완화하기 위한 조치를 취하고 있습니다.
2월, 메타는 페이스북, 인스타그램, 스레드 등의 플랫폼에서 AI 도구로 생성된 이미지를 라벨링하는 이니셔티브를 도입했습니다. 이는 눈에 보이는 마커, 보이지 않는 워터마크, 그리고 인공 출처를 나타내는 상세 메타데이터를 포함합니다. 구글과 OpenAI도 AI 생성 콘텐츠 내에 '서명'을 삽입하는 유사한 조치를 발표했습니다.
이러한 이니셔티브는 콘텐츠 출처와 진위를 추적하고 진짜와 조작된 콘텐츠를 구별하기 위한 C2PA(콘텐츠 출처 및 진위를 위한 연합)의 지원을 받습니다. 이러한 노력은 콘텐츠 제작의 투명성과 책임성을 높이지만, 과연 이들이 진화하는 기술의 잠재적 오용을 방지하는 데 충분할까요?
누가 진실을 결정하는가?
탐지 도구의 시행과 관련된 중요한 문제는 이 도구가 접근 가능한 사람들이 악용하지 않고 보편적으로 효과적일 수 있느냐는 것입니다. 이는 현실을 정의할 권한이 누구에게 있는지에 대한 시급한 질문으로 이어집니다. AI 생성 콘텐츠의 잠재력을 진정으로 다루기 전에 이 점을 이해하는 것이 필수적입니다.
Edelman Trust Barometer 2023에 따르면, 사람들은 기술 혁신을 관리하는 기관에 대한 상당한 회의감을 가지고 있습니다. 보고서에 따르면 전 세계적으로 사람들은 혁신이 잘 관리되고 있다고 믿는 것보다 잘 관리되지 않고 있다고 믿을 가능성이 두 배에 가깝습니다(39% 대 22%). 많은 사람들은 기술 변화의 속도와 그것이 사회에 미치는 영향에 대해 우려를 표합니다.
이러한 회의감은 대응책이 개선되면서 해결해야 할 도전 과제도 진화한다는 점에서 더욱 심화됩니다. 기술 혁신에 대한 대중의 신뢰를 회복하는 것은 워터마크 조치의 효과를 위해 매우 중요합니다.
우리가 본 바와 같이, 이러한 신뢰를 얻는 것은 쉬운 일이 아닙니다. 예를 들어, 구글 제미니는 이미지 생성에서 편향 문제로 비판을 받았고, 이는 회사 내에서 곤란함을 초래했습니다. 뒤따른 사과는 이러한 사건이 대중 인식에 미치는 지속적인 영향을 강조합니다.
기술 투명성의 필요성
최근 OpenAI의 CTO인 미라 무라티가 Sora를 교육하는 데 사용된 데이터를 구체적으로 언급하지 못하면서 한 영상이 화제를 모았습니다. 데이터 품질의 중요성을 고려할 때, CTO가 훈련 데이터에 대한 명확성을 제공하지 못한 것은 우려스러운 일입니다. 그녀의 후속 질문에 대한 무시는 더욱 심각한 문제 신호를 나타내며, 기술 산업에서 투명성을 우선시해야 한다는 점을 시사합니다.
앞으로 투명성과 일관성을 위한 기준을 확립하는 것이 필수적입니다. AI 도구에 대한 공교육, 명확한 라벨링 관행, 결함에 대한 책임 등은 모두 신뢰할 수 있는 환경을 조성하는 데 중요한 요소입니다. 발생하는 문제에 대한 소통 역시 필수적입니다.
이러한 조치가 없다면, 워터마킹은 표면적인 해결책에 불과할 수 있으며, 허위 정보와 인공 콘텐츠에 대한 신뢰 저하라는 근본적인 문제를 해결하지 못할 것입니다. 현재 상황에서도 딥페이크 선거 간섭이 생성 AI 세계에서 이미 주요 이슈로 부각되고 있습니다. 전 세계 인구의 상당 부분이 투표를 준비하는 가운데, 이 문제를 해결하는 것은 콘텐츠의 진정성을 위한 미래에 매우 중요합니다.