전 세계 정부들은 인공지능(AI)과 관련된 위험을 완화하기 위한 방안을 모색하고 있지만, 전문가들 사이에서는 효과적인 통제가 가능할지에 대한 회의론이 여전히 존재합니다. 최근 영국에서 열린 AI 안전 정상 회의에서는 미국, 중국, 유럽연합, 영국 및 25개국의 지도자들이 모여 잘못된 정보, 의도적인 피해 및 우발적 피해와 같은 문제를 방지하기 위한 공동의 노력을 결의했습니다. 그러나 정상 회의에서 제시된 야심찬 목표는 현실적이지 않을 수 있습니다. 도미노 데이터랩의 데이터 과학 전략 책임자 Kjell Carlsson은 "AI는 전문가 시스템부터 전통적인 기계 학습, 최근의 생성 AI까지 다양한 기술을 포함하고 있으며, 이러한 다양성은 모든 기술과 그 응용을 적절하게 규제하는 규정의 제정을 어렵게 만듭니다."라고 설명했습니다.
안전성 확보를 위한 노력
정상 회의 동안 정책 입안자들은 지속적인 AI 연구의 필요성을 강조하며 Bletchley 선언서를 통해 안전성을 최우선으로 삼고 있습니다. 이 협력적 입장은 AI가 초래하는 실존적 위험 및 대규모 일자리 감소에 대한 두려움이 커지는 가운데 나왔습니다. 그러나 일부 전문가들은 이러한 종말론적 예측이 과장되었다고 주장합니다. 메타의 수석 AI 과학자 Yann LeCun은 X(구 트위터)에서 "AI 재앙론은 곧 종말론적 종교와 구별하기 어렵게 되어가고 있다."라고 언급했습니다.
Bletchley 선언은 "인공지능(AI)은 인류 복지, 평화 및 번영을 변화시키고 향상시킬 수 있는 거대한 글로벌 기회를 제공한다."라고 선언했습니다. 이 선언은 AI 기술의 설계와 배치에서 인간 중심적이며 신뢰할 수 있고 책임 있는 접근의 중요성을 강조하며, 과학적 증거를 바탕으로 AI 위험을 식별하고 이해하기 위한 국제적 협력을 촉구하고 있습니다. "AI로 인한 많은 위험은 본질적으로 국제적이며, 따라서 국제 협력을 통해 해결하는 것이 최선이다."라고 선언서는 언급하며 국가의 공동 책임을 강조했습니다.
개별 행동과 회의론
이러한 글로벌 노력에 대응하여 각국 정부도 AI 규제에 나서고 있습니다. 정상 회의 이전, 바이든 대통령은 정부 기관, 기업, 학계 간 협력이 이루어지도록 하여 AI의 책임 있는 개발을 유도하고 일자리와 소비자 개인정보를 보호하기 위한 행정 명령을 발효했습니다. 바이든은 "내 행정부는 이미 불평등한 기회를 부여받은 이들에게 AI 사용으로 불이익을 주는 것을 허용할 수 없으며, 결코 용납하지 않을 것"이라고 주장했습니다.
하지만 AI 규제 전문가 Milan Kordestani는 현재의 제안들이 위험을 충분히 해결하지 못한다고 우려하고 있습니다. 그는 바이든의 행정 명령이 구체적인 조치를 정리하지 않고 AI 안전 장치를 이행하라고 요구하는 모호한 성격을 비판했습니다. "제안된 규제는 민간 부문의 행동을 제약하지 않으며 개인이 AI 기술과 상호작용하는 방식을 간과하고 있습니다."라고 그는 주장하며 AI 위험에 대한 학계의 논의 참여 필요성을 강조했습니다. Kordestani는 효과적인 AI 규제가 기술 자체를 넘어 사회 전반에 미치는 영향, 즉 노동 역학 및 인지 과정의 변화까지 포괄해야 한다고 믿고 있습니다. "1980년대 후반의 입법자들은 소셜 미디어에서의 잘못된 정보 규제 필요성을 예측할 수 없었습니다. 마찬가지로 AI 규제도 새로운 위험에 대응할 수 있도록 동적으로 발전해야 합니다."라고 그는 덧붙였습니다.
글로벌 도전과 윤리적 우려
AI 규제의 도전은 그레스 범위에 의해 더욱 부각됩니다. Modulus의 CEO Richard Gardner는 AI 규제를 핵무기 통제에 비유했습니다. "국경 내에서 AI를 규제하는 것은 복잡합니다. 적대적인 국가들이 국제 협약에도 불구하고 개발을 계속할 수 있기 때문이죠."라고 그는 말했습니다. 규제되지 않은 AI 제품을 만들 수 있는 악의적인 개발자들의 가능성은 또 다른 어려움을 더합니다.
저작권 문제와 관련하여 Gardner는 AI 훈련과 데이터 사용을 관리하기 위해 보호 자료를 제외하도록 검색 엔진 봇에 명령하는 standard protocols인 robots.txt 파일을 사용하는 것을 주장했습니다. "우리는 혁신가들이 연구 개발의 자유를 추구하도록 해야 합니다."라고 그는 강조하며 지나친 규제가 혁신을 저해할 수 있음을 경고했습니다.
AI의 윤리적 기준을 정의하는 것은 간단한 일이 아닙니다. 현재의 인권 법규는 AI 이니셔티브에 도전할 수 있는 기초를 형성할 수 있지만, 그러한 권리를 실행 가능한 지침으로 전환하는 정밀한 규제가 시급히 필요합니다. AI 및 응용 보안 전문가인 Rob van der Veer는 "기존 개인정보 보호 규정은 개인 데이터를 사용하는 AI 시스템의 목적에 한계를 두지만, 보안 규정은 AI 공학이 초래하는 새로운 취약성을 간과하는 경우가 많습니다."라고 지적했습니다.
진화하는 환경에 적응하기
AI 기술의 빠른 발전을 고려할 때, 규제는 지속적인 프로세스가 되어야 하며, 새로운 발전에 대한 지속적인 평가가 필요합니다. Kordestani는 이를 위해 혁신적인 훈련 방법과 응용에 적합하게 조정되는 새로운 법률이나 국제 조약이 필요할 수 있다고 제안합니다. 정부는 기업과 협력하여 혁신의 필요성과 AI 개발의 안전성 사이의 균형을 맞춰야 합니다.
이뿐만 아니라, 이 논의에 학계를 포함시키는 것은 도덕적이고 윤리적인 관점에서 시민의 안전을 보장하는 데 필수적이며, 공정한 접근, 데이터 윤리 및 사회적 편견에 대한 대화를 촉진하는 데 중요합니다. 궁극적인 목표는 AI가 일상생활의 다양한 측면에서 초래할 수 있는 잠재적인 위협으로부터 시민을 보호하는 것입니다.
Kordestani는 나쁜 의도를 가진 행위자들이 악의적 목적을 위해 AI를 악용할 수 있다고 경고하며 강력한 국제 규제의 필요성을 강조했습니다. "공공, 민간, 학계가 참여하는 다중 이해관계자 접근 방식을 수립하는 것이 현재와 미래의 위협에 대응하기 위해 필수적"이라고 그는 주장했습니다.
Carlsson은 모든 AI 기술에 대한 포괄적 규제가 아니라 특정 사용 사례에 초점을 맞춘 규제 접근 방식을 지지합니다. 예를 들어, 사기 목적으로 심층 가짜를 남용하는 문제를 해결하는 것이 생성 AI 결과에 대한 워터마크 의무보다 더 유익할 수 있습니다.
규제는 최신 AI 발전에 뒤처지는 문제가 있겠지만, 기술과 함께 진화할 수 있는 반응적 프레임워크를 만드는 것은 필수적이며, 궁극적으로 인간적 고려가 AI 혁신과 사회 통합의 중심에 위치할 수 있도록 보장해야 합니다.