버라이즌은 1억 이상의 전화 고객을 대상으로 고객 지원과 경험을 강화하기 위해 생성형 AI 애플리케이션을 활용하고 있으며, 이러한 위험을 완화하기 위해 책임 있는 AI 팀을 확대하고 있습니다. 버라이즌 네트워크 지원 담당 부사장인 미카엘 라쥐는 이 initiative의 일환으로 회사가 시행하는 여러 조치에 대해 설명했습니다. 여기에는 데이터 과학자들이 AI 모델을 중앙 팀에 등록하여 보안 검토를 받도록 요구하고, 버라이즌의 애플리케이션에서 사용되는 대형 언어 모델(LLM)에 대한 면밀한 검토를 통해 편향을 줄이고 유해한 언어를 예방하는 것이 포함됩니다.
AI 감사: 혼란의 시대
라쥐는 뉴욕에서 열린 미디어 AI Impact 행사에서 생성형 AI 애플리케이션의 감사에 대한 도전에 대해 언급했습니다. LLM이 예측할 수 없는 경우가 많아, AI 감사 분야는 여전히 초기 단계에 있으며 기업들은 규제 기관이 구체적인 지침을 제시하지 않은 가운데 더욱 빠르게 노력을 기울여야 합니다. 최근 고객 지원 AI에서 발생한 고프로필 오류—셰비, 에어 캐나다 및 구글과 같은 주요 LLM 제공업체 관련 사고—는 AI 시스템의 신뢰성을 높일 필요성을 강조하고 있습니다.
정부 규제 기관은 광범위한 지침만을 발표하고 있으며, 기업들은 세부 사항을 정의하는 역할을 맡고 있다고 UiPath의 수석 부사장인 저스틴 그린버거가 설명했습니다. 패트로너스 AI의 공동 창립자인 레베카 치안도 “서부 개척 시대 같아요”라며 동의했습니다. 현재 대부분의 기업들은 생성형 AI 사용에 대한 규칙을 개발하는 첫 단계를 진행하고 있으며, 다음 단계는 이 정책 준수를 보장하기 위한 감사 단계이지만, 전문가들에 따르면 필요한 자원을 갖춘 기업은 많지 않습니다.
최근 액센추어 보고서에 따르면, 96%의 조직이 AI에 대한 어떤 형태의 정부 규제를 지지하지만, 단 2%만이 책임 있는 AI 관행을 완전히 구현했음을 나타냈습니다.
AI로 에이전트 능력 강화
버라이즌은 고객 상호작용을 더욱 잘 관리하기 위해 최전선 직원에게 지능형 대화형 어시스턴트를 제공하며, 이 분야에서 선두주자가 되고자 합니다. 이러한 에이전트는 종종 방대한 정보를 처리해야 하지만, 생성형 AI는 개인화된 고객 정보를 즉시 제공하고 80%의 반복적인 업무를 처리함으로써 이를 완화할 수 있습니다. 이는 에이전트가 인간의 개입이 필요한 20%의 문제에 집중할 수 있게 하여, 개인화된 추천을 가능하게 합니다.
또한 버라이즌은 생성형 AI와 딥 러닝 기술을 활용하여 네트워크와 웹사이트의 고객 경험을 향상시키고 있으며, 제품과 서비스 개선에도 힘쓰고 있습니다. 라쥐는 고객 이탈을 예측하기 위한 모델을 개발했다고 언급했습니다.
안전을 위한 중앙 집중식 AI 거버넌스
버라이즌은 모델 드리프트 및 편향을 추적하는 AI 거버넌스에 대규모 투자를 하고 있습니다. 이 initiative는 모든 거버넌스 기능을 "AI 및 데이터" 조직으로 통합하는 결과를 가져왔으며, 여기에는 "책임 있는 AI" 부서가 포함됩니다. 라쥐는 이 부서가 AI 안전성에 필수적이며, CISO 사무실 및 조달 임원들과 긴밀히 협력하고 있다고 강조했습니다. 올해 초, 버라이즌은 노스이스턴 대학교와 협력해 책임 있는 AI 로드맵을 발표했습니다.
AI 모델을 효과적으로 관리하기 위해 버라이즌은 데이터 세트를 개발자와 엔지니어가 직접 상호작용할 수 있도록 접근 가능하게 하여 승인된 툴을 사용하도록 하고 있습니다.
AI 모델 등록의 추세는 다른 B2C 기업에서도 확산될 것으로 기대되며, 그린버거는 모델은 “버전 관리되고 감사받아야 한다”고 제안했습니다. 그는 또한 기업들이 기술의 빠른 발전으로 인해 위험 프로필을 정기적으로 평가해야 하며, 모델 등록을 위한 법적 조치가 미국 및 다른 국가에서 고려되고 있다고 강조했습니다.
신흥 AI 거버넌스 유닛
그린버거에 따르면, 많은 정교한 기업들이 버라이즌처럼 중앙 집중식 AI 팀을 구성하고 있으며, "AI 거버넌스" 유닛의 출현이 확산되고 있습니다. 제3의 LLM 공급업체와 협력하는 것은 각 공급자가 다양한 기능을 가진 여러 모델을 제공함에 따라 기업들이 전략을 재고하게 만들고 있습니다.
생성형 AI 애플리케이션의 예측 불가능한 특성을 고려할 때, 감사 프로세스를 법제화하는 것은 특별한 도전을 제기합니다. 패트로너스 AI의 치안은 안전, 편향 및 오정보와 관련된 실패 가능성이 필요하여, 특히 운송이나 의료와 같은 고위험 분야에서 산업별 규제가 필요하다고 지적했습니다.
AI 감사의 투명성은 여전히 중요한 장애물로 남아 있으며, 전통적인 AI는 생성형 AI의 복잡성에 비해 이해하기 더 쉽습니다. 현재, 기업의 약 5%만이 편향 및 책임 있는 AI와 관련된 파일럿 프로젝트를 완료했다고 그린버거는 말했습니다.
AI 환경이 급속도로 발전함에 따라, 버라이즌의 책임 있는 AI에 대한 헌신은 이 기술의 배포에 있어 더 나은 거버넌스, 투명성 및 윤리적 기준이 시급히 필요함을 알리는 산업의 기준을 제시하고 있습니다.