영국 총리 리시 수낙은 11월 1일과 2일에 예정된 AI 안전 정상 회담을 준비하며 인공지능(AI)에 대한 균형 잡힌 시각의 필요성을 강조했습니다. 그는 국가 최고의 과학 기관인 로열 소사이어티에서 발표하며, AI와 관련된 중요한 위험, 특히 악의적인 행위자에 의해 오용될 가능성에 대해 경고했습니다. 그러나 그는 지나치게 우려하는 태도를 지양할 것을 촉구했습니다.
"현재 AI를 개발하는 주체가 AI 안전성을 평가하는 주체이기도 하지만, 그들조차도 모델의 미래 능력을 완전히 이해하지 못하는 경우가 많습니다."라고 수낙은 언급했습니다. "가장 진보된 모델을 신속하게 만들기 위한 강력한 유인이 있으며, 우리는 그들이 스스로 결과를 평가하도록 신뢰해야 하는지 고민해야 합니다."
수낙은 혁신을 저해할 수 있는 조급한 규제 조치를 반대하며, "우리가 완전히 이해하지 못하는 사안에 대해 어떻게 효과적인 법률을 만들 수 있겠습니까? 대신 AI 모델 안전성을 이해하고 평가할 수 있는 세계적 수준의 역량을 정부 내에서 키우고 있습니다."라고 밝혔습니다. 영국 정부의 AI 법안 접근 방식은 유럽연합보다 훨씬 덜 엄격하며, 요구 사항을 백서로 정리하고 특정 분야의 규제 기관에 규칙 제정을 위임하고 있습니다.
6월 AI 정상 회담에서 AI 부장관은 앞으로의 규제가 기술 표준 및 보증 기법을 보완할 것이라고 언급하며, 감독 강화의 가능성을 언급했습니다.
AI 안전을 위한 협력적 접근
수낙은 AI 안전에 대해 다른 국가들과 협력적으로 작업할 계획을 밝혔으며, 미국과의 긴장 상태에도 불구하고 중국을 정상 회담에 초대한 것은 이러한 협력 정신을 보여줍니다. 그는 "AI에 대한 심각한 전략은 세계의 주요 AI 강대국과의 대화가 포함되어야 합니다."라고 강조했습니다.
중국은 자국의 AI 기업에 대해 엄격한 규제를 시행하고 있으며, 새로운 생성 AI 모델이 공개되기 전에 국가 데이터 감독 기관의 보안 검토를 요구하고 있습니다. 그럼에도 불구하고 중국 정부는 AI 감독에 대한 국제 논의에 참여할 의지를 표시했으며, 시진핑 대통령은 국가 안보에 초점을 맞출 것임을 강조했습니다.
올리버 다우든 부총리는 중국이 정상 회담 초대를 수락했다고 확인했습니다. 수낙은 이번 회담이 AI 위험에 대한 공통된 이해를 조성하고, 이러한 도전에 대한 첫 국제 성명서에 대한 합의에 도달하기를 목표로 하고 있습니다. 그는 참석국과 기관의 추천을 바탕으로 한 "진정한 글로벌 전문가 패널"의 설립을 구상하고 있으며, 이 패널은 포괄적인 'AI 과학의 현황' 보고서를 발표할 예정입니다.
"우리의 성공은 AI 기업과의 협력에 달려 있습니다. 기술이 발전함에 따라 우리는 위험에 대한 집단적 이해도 발전시켜야 합니다."라고 그는 언급했습니다. 이 이니셔티브는 유엔 사무총장 안토니우 구테흐스의 제안과 일치하며, AI 안전 모니터링을 위한 글로벌 규제 기관 설립 필요성을 강조합니다.
산업계의 관점과 우려
리시 수낙이 영국을 AI 강국으로 육성하려는 비전을 추진함에 따라 정부는 AI 관련 자문을 위한 1억 2천만 달러를 배정했으며, 이 그룹에는 튜링 상 수상자인 요슈아 벵리오가 포함되어 있습니다. 이번 회담에는 OpenAI CEO 샘 올트먼과 Google DeepMind CEO 데미스 하사비스 등 저명한 산업 리더와 미국 부통령 카말라 해리스와 같은 고위 정치인들이 참석할 예정입니다.
케임브리지 컨설턴트의 AI 헤드 마야 딜런은 AI 혁명 속에서 협력의 필요성을 강조하며, "문제는 AI를 수용하는 것이 아니라, 그 과정을 신중하게 이끌어가는 것입니다. 이 혁명은 비즈니스 성공과 사회적 웰빙을 결합해야 하며, 진정한 협력이 필요합니다."라고 말했습니다.
KPMG 영국의 커넥티드 테크놀로지 책임자 폴 헨닝거는 정상 회담이 협력적 위험 평가 전략의 촉발제가 될 수 있지만, 조직들도 기술의 진화에 따라 정기적인 업데이트를 기대할 것이라고 언급했습니다.
정상 회담을 위한 야심 찬 목표에도 불구하고 Cloudera의 EMEA 필드 CTO 크리스 로일스는 포괄적인 규제를 수립하려는 노력은 높은 목표로 보인다고 평가했습니다. 그는 기업들이 신뢰할 수 있는 데이터 소스를 활용해 AI 모델을 훈련시키는 데 집중해야 한다고 제안했습니다. 테렐릭스의 총괄 매니저 파비앵 레치는 AI 개발에서 보안 조치를 우선시하여 신뢰를 높이고 사이버 위협에 대처해야 한다고 주장했습니다.
AI 위험 강조
수낙의 연설 전에 영국 정부는 다음과 같은 잠재적인 AI 위험을 delineate한 보고서를 발표했습니다:
- 사회적 피해: 잘못된 정보 및 딥페이크 생성, 자동화로 인한 일자리 붕괴, 그리고 불공정한 결과를 초래할 수 있는 알고리즘 편향.
- 오용 위험: AI 기술이 무기의 제작을 용이하게 하거나 사이버 공격 및 허위 정보 작업의 효과를 강화할 가능성.
- 통제 상실 위험: 인간이 비정렬된 AI 시스템에 의사결정 권한을 위임하는 것과 영향력을 확대하려는 고급 에이전트에 대한 우려.
보고서는 또한 안전한 AI 시스템 설계의 복잡성, 안전성 평가, 배치 시 책임 추구 등 이러한 위험을 심화시킬 수 있는 만연한 문제들을 설명했습니다. 이 보고서에 대한 반응으로 Deployteq의 CEO 수줄 반 데르 루는 영국 정부의 AI 안전에 대한 진지한 접근을 높이 평가하며, AI가 다양한 산업에서 제공하는 기회는 효과적인 규제와 정책 입안자의指導에 달려있다고 언급했습니다.