AI, 특히 생성형 AI와 대형 언어 모델(LLM)은 눈에 띄는 발전을 이루었으며, 다양한 산업에서 널리 채택될 준비가 되어 있습니다. McKinsey에 따르면, AI에 우수한 기업들은 이 기술에 전적으로 투자하고 있으며, 비즈니스는 뒤처지지 않기 위해 이에 적응해야 합니다. 그러나 AI 안전성은 여전히 미흡한 분야로, 이 기술을 활용하는 조직에는 상당한 위험이 도사리고 있습니다. 의료 및 법 집행 분야의 알고리즘에서 드러난 편향은 사회적 불평등을 심화시키고 신뢰성을 해칠 수 있습니다.
유명한 경고 사례로는 마이크로소프트의 Tay 챗봇이 있습니다. 원래는 친근한 대화를 위해 설계되었으나, 남용으로 인해 빠르게 피해를 입어 공적 신뢰에 큰 타격을 주었습니다. 비평받는 ChatGPT조차도 한계에 대한 비판을 받아왔으며, 기업 환경에 AI를 통합할 때의 복잡성을 강조합니다.
기업 임원들은 생성형 AI의 변혁적 잠재력을 활용할 필요성을 인식하고 있지만, 초기 활용 사례를 식별하고 AI 안전성 문제를 넘기는 데 도전에 직면해 있습니다. 이를 해결하기 위해 "겨우 이삭 한 자루에서 바늘 찾기"(Needle in a Haystack) 문제에 집중하는 것이 효과적일 수 있습니다. 이 문제들은 인간에게 솔루션 생성이 어려운 대신, 그 솔루션을 검증하기는 간단한 문제들입니다. 이러한 독특한 문제들은 조기 산업 채택에 이상적이며, 예상보다 더 많이 존재합니다.
다음은 겨우 이삭 한 자루에서 바늘 찾기 문제의 세 가지 예입니다:
1. 교정 편집
긴 문서에서 철자 및 문법 오류를 찾는 것은 어려운 일입니다. Microsoft Word 등의 도구가 철자 오류를 감지해왔으나, 문법 검사는 최근에야 생성형 AI를 통해 개선되었습니다. 잠재적 오류가 표시되면, 인간이 쉽게 검증할 수 있어 AI의 이상적인 활용 사례가 됩니다. Grammarly와 같은 서비스는 LLM을 활용해 교정 편집을 지원합니다.
2. 보일러플레이트 코드 작성
새로운 API의 문법과 규칙을 배우는 것은 소프트웨어 엔지니어에게 시간 소모가 큰 작업입니다. 생성형 AI 도구인 GitHub Copilot과 Tabnine은 보일러플레이트 코드 생성을 자동화합니다. 코드를 생성하는 것은 복잡할 수 있지만 기능을 검증하는 것은 상대적으로 간단하며, 엔지니어들은 배포 전에 테스트를 통해 정확성을 확인할 수 있습니다.
3. 과학 문헌 검색
방대한 과학 문헌을 최신 상태로 유지하는 것은 전문가에게도 어렵지만, 그 안에는 귀중한 통찰력이 담겨 있습니다. AI는 기존 연구를 바탕으로 새로운 아이디어를 생성하여, 여러 분야에 대한 깊은 이해가 필요한 학제 간 연구에서 특히 도움을 줄 수 있습니다. Typeset과 같은 제품은 이 분야에서 진전을 이루고 있습니다.
인간 검증의 중요성
모든 활용 사례에서 인간 검증은 필수적입니다. 비즈니스 핵심 부문에서 AI가 독립적으로 작동하도록 허용하는 것은 과거의 실패 사례를 고려할 때 상당한 위험이 따른다. AI가 생성한 콘텐츠의 인간 감독을 보장함으로써 안전성과 신뢰성을 향상시킬 수 있습니다. 기업들은 겨우 이삭 한 자루에서 바늘 찾기 문제에 집중함으로써 AI의 장점을 균형 있게 활용하면서 필수적인 인간 의사결정을 유지할 수 있습니다.
LLM 통합 초기 단계에서는 겨우 이삭 한 자루에서 바늘 찾기 활용 사례에 집중함으로써 안전성 문제를 해결하면서 귀중한 AI 경험을 쌓을 수 있습니다.