성적인 내용을 담은 테일러 스위프트의 딥페이크가 X(구 트위터)에서 바이럴되자, 수백만 명의 팬들이 #ProtectTaylorSwift 해시태그 아래에 모였습니다. 팬들의 노력 덕분에 불쾌한 콘텐츠는 어느 정도 묻혔지만, 이 사건은 여전히 대중의 관심을 끌었고, 딥페이크 기술의 위험성에 대한 중요한 대화를 촉발했습니다. 카린 장-피에르 백악관 대변인은 해로운 AI 생성 콘텐츠로부터 개인을 보호하기 위한 입법적 조치를 요구하기도 했습니다.
스위프트 사건은 충격적이지만, 이는 결코 외로운 사례가 아닙니다. 최근 몇 년 동안 유명 인사들과 인플루언서들이 딥페이크의 피해자가 되는 사례가 늘어나고 있으며, AI 기술이 발전함에 따라 명성 훼손의 가능성도 증가할 것으로 예상됩니다.
AI 에이전트와 딥페이크의 증가
"짧은 비디오 하나로도 대본을 바탕으로 한 새로운 클립을 만들 수 있습니다. 이는 재미있을 수 있지만, 누구나 오해의 소지가 있는 콘텐츠를 생성할 수 있다는 위험도 존재합니다,"라고 Attestiv의 CEO인 니코스 베키아리데스가 설명했습니다. 딥페이크 콘텐츠 생성 도구의 접근성과 정교함이 증가함에 따라, 온라인 환경은 기만적인 이미지와 비디오로 가득 차 있습니다. 이러한 상황에서 중요한 질문이 제기됩니다: 개인은 어떻게 현실과 조작을 구별할 수 있을까요?
딥페이크의 의미 이해하기
딥페이크는 딥러닝 기술을 활용해 생성된 사실적인 인공 이미지, 비디오 및 오디오입니다. 이 조작은 여러 해 동안 존재했지만, 2017년 말 '딥페이크'라는 이름의 레딧 사용자가 AI 생성 포르노 콘텐츠를 공유하면서 유명세를 얻었습니다. 처음에는 복잡한 얼굴 교환 기술이 필요했지만, 최근의 발전 덕분에 DALL-E, Midjourney, Adobe Firefly, Stable Diffusion과 같은 플랫폼을 통해 누구나 공인들의 설득력 있는 조작물을 쉽게 만들 수 있게 되었습니다.
생성적 AI의 증가는 악의적인 행동자가 기술의 작은 결함을 악용할 수 있는 기회를 제공합니다. 독립 기술 매체인 404 Media는 테일러 스위프트의 딥페이크가 마이크로소프트의 AI 도구의 안전장치를 우회하여 제작된 것임을 발견했습니다. 유사한 기술이 프란치스코 교황의 잘못된 이미지와 조 바이든 대통령과 같은 정치인들의 오디오를 모방하는 데 사용되었습니다.
쉬운 접근의 위험성
딥페이크 기술의 접근성은 심각한 위험을 초래하여 공인의 명성을 훼손하고 유권자를 오도하며 재정적 사기를 불러일으킬 수 있습니다. 맥아피의 CTO인 스티브 그로브맨은 사기꾼이 실제 비디오 장면과 가짜 오디오를 결합하여 테일러 스위프트와 같은 유명 인사의 클론을 사용하여 관중을 속이는 경향이 증가하고 있다고 경고했습니다.
Sumsub의 신원 사기 보고서에 따르면, 2023년 전 세계에서 검출된 딥페이크 수가 10배 증가했으며, 암호화폐 분야가 88%로 가장 큰 타격을 입었고, 핀테크 분야가 8%로 뒤를 이었습니다.
대중의 우려 증가
딥페이크에 대한 대중의 우려는 커지고 있습니다. 맥아피의 2023년 설문조사에 따르면, 84%의 미국인이 2024년 딥페이크 기술 악용에 대해 우려하고 있으며, 3분의 1 이상이 딥페이크 사기와 관련된 개인적인 경험을 보고했습니다.
AI 기술이 계속 발전하면서, 진짜 콘텐츠와 조작된 미디어를 구별하기가 점점 더 어려워지고 있습니다. Sumsub의 AI 및 ML 책임자인 파벨 골드만-칼라이딘은 처음에는 유익하게 보였던 기술적 진보가 이제 정보의 진실성과 개인 보안에 대한 위협이 되고 있다고 경고합니다.
딥페이크 탐지하기
정부와 조직들이 딥페이크의 확산을 막기 위해 노력하는 가운데, 진짜 콘텐츠와 가짜를 구별하는 능력이 필수적입니다. 전문가들은 딥페이크 탐지 방법으로 두 가지 주된 방법을 제안합니다: 미세한 불일치를 분석하고 출처의 진위성을 확인하는 것입니다. 현재 AI 생성 이미지는 매우 사실적일 수 있으나, AI 생성 비디오는 빠르게 개선되고 있습니다. 하지만 부자연스러운 손 움직임, 왜곡된 배경, 나쁜 조명 및 디지털 아티팩트와 같은 불일치가 인공성을 드러낼 경우가 많습니다. 베키아리데스는 조작을 나타내는 잠재적인 지표로서 그림자가 누락되거나 과도하게 대칭적인 얼굴 특징을 주의 깊게 살펴보는 것이 중요하다고 강조합니다.
이러한 탐지 방법은 기술 발전에 따라 점점 더 어려워질 수 있으며, 의심스러운 미디어에 접근할 때 경계하는 태도가 필요합니다. 루이프는 사용자가 콘텐츠 이면의 의도를 평가하고 출처의 잠재적인 편향을 고려해야 한다고 조언합니다.
검증 노력을 돕기 위해 기술 회사들은 고급 탐지 솔루션을 개발 중입니다. 구글, 일레븐랩스, 맥아피는 AI 생성 콘텐츠를 식별하기 위한 방법을 모색하고 있으며, 맥아피는 악성 오디오를 탐지하는 데 있어 90%의 정확도를 보고하고 있습니다.
기만적인 미디어로 가득 찬 환경에서 딥페이크의 의미와 위험을 이해하는 것은 매우 중요합니다. 정보를 알고 회의적인 태도를 유지하는 것은 대중이 이 어려운 디지털 환경을 탐색하는 데 도움이 될 것입니다.