OpenAI와 Anthropic, 협정 체결: 미국 정부, 새로운 AI 모델에 대한 조기 안전성 평가 실시 예정

OpenAI와 Anthropic, AI 안전 협력 협약 체결

최근 유명 AI 기업 OpenAI와 Anthropic이 미국 AI 안전 연구소와 중요한 협력 협약을 발표했습니다. 이 양해각서에 따라 두 기업은 새로운 AI 모델을 공개 출시 전에 미국 정부에 조기 접근하여 보안 평가를 받을 수 있도록 약속했습니다. 이 협력은 AI 기술의 안전한 개발을 위한 중요한 진전을 의미합니다.

협약에 따르면, OpenAI와 Anthropic은 AI 모델을 공개 출시 전후 모두 미국 정부에 제공하게 됩니다. 이 initiative는 잠재적인 안전 위험을 식별하고 최소화하는 것을 목표로 합니다. 미국 정부는 이 파트너십이 AI 기술에 대한 이해와 규제를 강화하여 안전하고 관리 가능한 개발을 보장할 것이라고 밝혔습니다.

OpenAI의 최고 전략 책임자인 제이슨 권은 이 initiative에 대한 강력한 지지를 표명하며, 미국 AI 안전 연구소와 협력해 AI 모델에 대한 최선의 관행 및 안전 기준을 확립하는 것이 중요하다고 강조했습니다. 권은 이 협력이 미국의 책임 있는 AI 개발에서 리더십을 강화할 것이라고 믿고 있습니다.

Anthropic의 공동 창립자이자 정책 책임자인 잭 클락도 이 파트너십에 대한 기대를 표현하며, AI 기술의 안전성과 신뢰성을 확보하는 것이 긍정적인 영향을 미치는 데 필수적이라고 강조했습니다. 두 조직은 이 협력을 통해 AI와 관련된 위험을 보다 잘 식별하고 줄이는 것을 목표로 하여 책임 있는 AI 개발을 촉진하고자 합니다.

이 발표는 AI 규제 정책에 대한 전 세계적인 논의가 고조되는 시점에 이루어졌습니다. 다양한 수준의 입법 기관이 혁신과 필요한 안전 규제 간의 균형을 모색하는 가운데, OpenAI와 Anthropic의 파트너십은 업계의 기준을 설정합니다. 최근 캘리포니아주에서 "고급 AI 모델 안전 혁신법"(SB 1047)이 통과되어, AI 기업들이 고급 모델을 학습하기 전 특정 안전 조치를 이행하도록 의무화했습니다. 이 법안은 주지사의 서명을 기다리고 있지만 이미 큰 관심과 논란을 일으켰습니다.

백악관은 선도적인 AI 기업들로부터 안전 조치에 대한 자발적인 약속을 적극적으로 촉구하고 있습니다. 여러 주요 기업들이 비구속적 약속을 하고, 사이버 보안 및 공정성 연구에 투자하며, 안전성을 높이기 위해 AI 생성 콘텐츠에 워터마크를 적용하겠다고 선언했습니다.

미국 AI 안전 연구소의 엘리자베스 켈리 디렉터는 이러한 새로운 협약이 시작에 불과하지만, AI의 책임 있는 미래 개발을 관리하기 위한 중요한 이정표가 된다고 말했습니다. 그녀는 AI 기술의 안전한 발전을 촉진하여 사회에 기여할 수 있도록 최선을 다하겠다고 밝혔습니다.

OpenAI, Anthropic 및 미국 정부 간의 협력은 AI 기술의 안전한 개발에 새로운 동력을 불어넣습니다. AI가 지속적으로 발전하고 그 응용이 다양해짐에 따라, AI의 안전성과 신뢰성을 보장하는 것은 글로벌한 관심사가 될 것입니다. 협력과 규제를 강화함으로써 AI 기술은 사회 발전에 점점 더 긍정적인 역할을 할 것으로 기대됩니다.

Most people like

Find AI tools in YBX

Related Articles
Refresh Articles