뉴스 출처로 AI 챗봇에 의존하지 말아야 하는 이유

AI 기반 챗봇에 대한 알림

AI 기반 챗봇, 예를 들어 ChatGPT는 자신 있게 잘못된 정보를 제공할 수 있습니다. 이는 GPS가 실수로 당신을 호수를 지나게 하는 것과 유사합니다. 이 알림은 Nieman Lab에서 수행된 최근 실험에 기반하고 있으며, ChatGPT가 OpenAI와 수익성 계약을 체결한 뉴스 조직의 정확한 기사 링크를 제공할 수 있는지를 검토했습니다.

결과는 우려스러웠습니다. ChatGPT는 올바른 URL 대신 전적으로 허구의 링크를 생성해 404 오류 페이지로 이끌었습니다. 이런 현상은 AI 업계에서 ‘환각(hallucination)’이라고 불리며, 이는 시스템이 정보를 잘못 표현하면서도 자신 있게 주장하는 상황을 잘 설명합니다. Nieman Lab의 Andrew Deck은 ChatGPT에게 주요 출처의 독점 기사 링크 생성을 요청했으며, 결과는 Business Insider와 관련된 이전 테스트와 유사하게 잘못된 URL이 출력되었습니다.

OpenAI의 한 대표는 Nieman Lab에 회사가 대화형 AI 기능과 실시간 뉴스 콘텐츠를 통합하기 위한 시스템을 개발 중이라고 인정했습니다. 이 시스템은 적절한 출처 인용 및 정확한 링크 연결을 목표로 하지만, 출시 일정과 신뢰성에 대한 정보는 여전히 불확실합니다.

이런 불확실성에도 불구하고 뉴스 조직들은 OpenAI 모델에 상당한 콘텐츠를 제공하며 금전적 보상을 받고 있습니다. 이 과정에서 그들의 신뢰성은 종종 희생됩니다. 반면, AI 기업들은 계약되지 않은 다양한 출처의 콘텐츠를 활용하여 모델을 훈련시키고 있습니다. Microsoft의 AI 책임자 Mustafa Suleyman은 모든 인터넷 콘텐츠를 "프리웨어"라고 설명하며, 착취 문화를 강화하고 있습니다. 이 글을 작성할 당시 Microsoft의 시장 가치는 3.36조 달러에 이릅니다.

핵심은 분명합니다: ChatGPT가 URL을 조작한다면, 사실 역시 조작할 가능성이 큽니다. 본질적으로 생성 AI는 고급 자동 완성 기능으로, 진정한 이해 없이 다음 논리적 단어를 예측할 뿐입니다. 예를 들어, 제가 주요 챗봇을 사용해 뉴욕 타임스 스펠링 비 문제를 해결하려 했을 때, 그들은 상당한 어려움을 겪었습니다. 이는 사실 정보에 대해 생성 AI에 의존하는 것이 최악의 경우 위험할 수 있음을 나타냅니다.

Most people like

Find AI tools in YBX

Related Articles
Refresh Articles