AI 발전 보고서 2024: 주요 발견 및 트렌드
스탠포드 대학교 인공지능 중심 연구소의 AI 인덱스 2024 보고서에 따르면, 인공지능(AI)은 2023년에 기술 벤치마크, 연구 성과, 상업적 투자 부문에서 중요한 발전을 이루었습니다. 하지만 AI의 위험성과 사회적 영향에 대한 우려도 커지고 있는 상황입니다.
AI 인덱스 2024 보고서는 전 세계 AI 발전에 대한 심층 분석을 제공하며, AI 시스템이 이미지 분류, 시각적 추론, 영어 이해 등의 벤치마크에서 인간 성능을 초월했음을 보여줍니다. 그러나 고급 수학, 상식 추론, 전략적 계획 등 복잡한 분야에서는 여전히 부족한 실력을 보이고 있습니다.
AI 연구 증가 및 비용 상승
보고서는 2023년에 AI 연구 및 개발 활동이 크게 증가했음을 강조하며, 이는 주로 민간 부문의 주도에 따른 것입니다. 기업들은 51개의 주요 머신러닝(ML) 모델을 발표했으며, 이는 학계에서 발표한 15개 모델을 훨씬 초과합니다. 산업과 학계 간의 협력이 추가로 21개의 저명한 모델을 더했습니다.
복잡한 AI 시스템의 트레이닝 비용은 급증했습니다. 예를 들어, OpenAI의 GPT-4 언어 모델은 약 7800만 달러의 컴퓨팅 자원을 소모했으며, Google의 Gemini Ultra 모델은 약 1억 9100만 달러로 추정되는 비용을 발생시켰습니다.
저자들은 "최첨단 AI 모델의 훈련 비용이 전례 없는 수준에 도달했다"고 언급합니다.
AI 생산의 지리적 우위
미국은 2023년 61개의 저명한 AI 모델을 생산하며 여전히 AI 모델 개발의 선두주자로 남아 있습니다. 중국과 유럽연합은 각각 15개와 21개의 모델로 뒤따릅니다.
투자 경향은 혼재된 양상을 보입니다. 전체 민간 AI 투자는 2년 연속 감소했지만, 텍스트, 이미지 및 기타 미디어를 생성할 수 있는 생성형 AI에 대한 자금은 거의 8배 증가하여 252억 달러에 달했습니다. OpenAI, Anthropic 및 Stability AI와 같은 저명한 기업들이 상당한 자금을 유치했습니다.
보고서는 "전체 AI 투자 감소에도 불구하고 생성형 AI 부문은 눈에 띄는 성장을 목격했다"고 명시합니다.
표준화된 AI 테스트의 필요성
AI의 빠른 발전은 시스템 책임성, 안전성 및 보안에 대한 표준화된 테스트의 부재에 대한 우려를 불러일으킵니다. OpenAI와 Google과 같은 주요 개발자들은 모델 평가를 다양한 벤치마크를 기준으로 수행하고 있어 비교 분석을 어렵게 하고 있습니다.
AI 인덱스 분석은 "대규모 언어 모델(LLM)의 책임성에 대한 강력하고 표준화된 평가가 심각하게 부족하여 선두 AI 모델의 위험과 한계를 체계적으로 평가하기 위한 노력을 복잡하게 만든다"고 경고합니다.
새로운 위험 및 대중의 우려
정치적 딥페이크의 확산 등 새로운 위험이 부각되고 있으며, 이는 "생성하기 쉬우나 감지하기 어려운" 특성을 가집니다. 또한, 보고서는 유해한 결과를 초래할 수 있는 언어 모델의 취약점을 밝혀냈습니다.
대중의 감정은 AI에 대한 우려가 증가하고 있음을 반영합니다. 향후 3-5년 내에 AI가 "극적인" 영향을 미칠 것으로 예상하는 사람들의 비율이 전 세계적으로 60%에서 66%로 증가했습니다. 응답자의 절반 이상이 AI 제품과 서비스에 대해 불편함을 느끼고 있습니다.
미국의 경우, AI의 역할 확대에 대한 우려가 급증했으며, AI에 대해 우려보다 흥미를 느끼는 미국인의 비율이 2021년 37%에서 2023년 52%로 증가한 반면, 흥미를 느끼는 비율은 36%로 감소했습니다.
보고서는 "AI의 잠재적 영향에 대한 대중의 인식이 증가하고 있으며, 우려도 함께 높아지고 있다"고 결론짓습니다. AI 기술이 발전함에 따라 AI 인덱스는 정책 입안자, 비즈니스 리더, 대중이 복잡성과 기회를 이해하도록 돕기 위한 객관적인 통찰력을 제공하는 것을 목표로 하고 있습니다.