PwC의 최근 조사에 따르면, 1,001명의 미국 내 비즈니스 및 기술 분야의 경영자 중 73%가 현재 생성적 AI를 사용 중이거나 도입할 계획이라고 답변했습니다. 하지만 이러한 관심에도 불구하고, AI 관련 위험을 평가하기 시작한 기업은 58%에 불과합니다. PwC는 책임 있는 AI가 가치, 안전, 신뢰에 초점을 맞춰야 하며, 이러한 요소들을 회사의 위험 관리 프로세스에 통합해야 한다고 강조하고 있습니다.
PwC의 미국 AI 보증 리더인 Jenn Kosar는 과거에는 회사들이 강력한 책임 있는 AI 전략 없이 AI 프로젝트를 시작하는 것이 허용되었지만, 이제는 그런 시대가 지났다고 강조했습니다. “우리는 지금 주기적으로 더 나아가고 있으므로 책임 있는 AI에 대한 구축이 필요한 시점입니다.”라고 Kosar는 말했습니다. 초기 AI 프로젝트가 소규모 팀에 국한되었던 반면, 현재는 생성적 AI의 광범위한 도입을 목격하고 있습니다.
생성적 AI 파일럿 프로젝트는 효과적인 팀 통합과 AI 시스템 활용에 대한 통찰력을 제공함으로써 책임 있는 AI 전략 수립에 중요한 역할을 합니다.
주요 우려사항
최근 일론 머스크의 xAI Grok-2 모델이 소셜 플랫폼 X(구 트위터)에 배포되면서 책임 있는 AI와 위험 평가의 중요성이 크게 부각되었습니다. 초기 피드백에 따르면 이 이미지 생성 서비스는 적절한 제약이 없어 공적 인물의 민감한 상황을 담은 딥페이크 등 논란의 여지가 있는 콘텐츠 생성이 가능하다는 지적이 있습니다.
책임 있는 AI를 위한 주요 우선사항
조사에서 참가자들은 PwC가 식별한 11가지 기능의 우선순위를 매겼습니다. 여기에는 다음이 포함됩니다:
- 재교육
- AI 위험 전문가 배치
- 정기 교육
- 데이터 프라이버시
- 데이터 거버넌스
- 사이버 보안
- 모델 테스트
- 모델 관리
- 제3자 위험 관리
- AI 위험 관리를 위한 전문 소프트웨어
- 모니터링 및 감사
80% 이상의 응답자가 이러한 분야에서 진전을 보고했지만, 모든 기능이 완전히 구현되었다고 응답한 것은 11%에 불과했습니다. PwC는 많은 조직들이 자신의 발전을 과장할 가능성이 있으며, 책임 있는 AI 관리의 복잡성이 완전한 구현을 저해할 수 있음을 주의했습니다.
예를 들어, 효과적인 데이터 거버넌스는 AI 모델이 내부 데이터에 접근할 수 있는 방식을 정의하고 보호 조치를 마련하는 데 중요합니다. 또한, 전통적인 사이버 보안 접근 방식은 모델 독살과 같은 정교한 공격에 대한 충분한 방어력을 제공하지 못할 수 있습니다.
책임 있는 AI의 책임성
PwC는 기업들이 AI 변환을 탐색하는 데 도움을 주기 위해 포괄적인 책임 있는 AI 전략을 우선시할 것을 권장합니다. 주요 권장사항은 책임 있는 AI 관행에 대한 명확한 소유권과 책임을 설정하고, 이상적으로는 단일 경영자의 아래에 두는 것입니다. Kosar는 AI 안전을 조직의 우선사항으로 여기는 것의 중요성을 강조하며, 다양한 이해 관계자와 협력할 수 있는 최고 AI 책임자 또는 전담 책임 있는 AI 리더의 임명을 제안했습니다.
“AI가 기술과 운영 위험을 통합하는 촉매제가 될 수 있을지도 모릅니다.”라고 Kosar는 덧붙였습니다.
PwC는 또한 조직들이 AI 시스템의 전체 수명 주기를 고려할 것을 제안합니다. 이는 이론적 고려를 넘어 조직 전반에 걸쳐 안전 및 신뢰 정책을 적극적으로 구현하는 것을 포함합니다. 미래 규제에 대비하기 위해서는 책임 있는 AI 관행에 대한 헌신과 이해 관계자 투명성 계획이 필요합니다.
Kosar는 많은 경영진이 책임 있는 AI를 상업적 장점으로 보고 있다는 조사 응답에 놀라움을 표하며, “책임 있는 AI는 위험 관리에 관한 것이 아니라 가치를 창출하는 것이어야 합니다. 조직들은 신뢰에 기반한 경쟁 우위로 이를 보고 있습니다.”라고 결론지었습니다.