2024 다보스 포럼에서 AI가 주요 화제로 떠올랐으며, 교육에서 규제에 이르는 20개 이상의 세션이 열렸습니다. 참석자들 중에는 OpenAI CEO 샘 올트먼, Inflection AI CEO 무스타파 수레이먼, AI 선구자 앤드류 응, 메타의 수석 AI 과학자 얀 르쿤, Cohere CEO 에이든 고메즈 등 AI 분야의 저명한 리더들이 포함되었습니다.
올해 다보스에서의 토론은 2023년의 기대감에서 경계하는 자세로 방향을 전환했습니다. IBM의 정부 및 규제 관계 담당 부사장 크리스 파딜라는 워싱턴 포스트와의 인터뷰에서 "작년에는 경이로움으로 가득했으나, 이제는 위험을 평가하고 AI의 신뢰성을 보장하는 이야기가 중심이 되었다"고 언급했습니다.
올해의 주요 우려 사항으로는 잘못된 정보의 확산, 일자리 상실, 그리고 부유한 국가와 빈곤한 국가 간의 경제격차 확대 등이 있었습니다. 가장 시급한 문제는 딥페이크 기술로 촉발된 잘못된 정보의 증가였습니다. 조 바이든 대통령의 목소리를 모방한 로보콜 사건이 뉴햄프셔 예비선거 이전에 발생하며 이 위협을 여실히 보여주었습니다.
카네기 멜론 대학교의 캐슬린 칼리는 "이는 유권자 억압이나 선거 무결성 공격 가능성의 빙산의 일각에 지나지 않는다"고 경고했습니다. 기업 AI 컨설턴트 루벤 코헨은 AI의 발전이 2024년 선거 동안 딥페이크 콘텐츠의 확산을 초래할 수 있다고 우려했습니다.
지속적인 연구에도 불구하고 딥페이크를 탐지할 수 있는 신뢰할 만한 방법은 여전히 찾기 어렵습니다. Jeremy Kahn이 Fortune에서 보도한 바와 같이, "우리는 신속한 솔루션이 필요하다. 불신은 민주주의에 해롭다."
이러한 조심스러운 초점 전환은 수레이먼으로 하여금 AI 관련 위협에 대응하기 위한 “냉전 전략”을 주장하게 만들었습니다. 그는 AI 기술이 더 접근 가능해짐에 따라 적대적인 세력의 오용 가능성이 커질 수 있으며, 이로 인해 검증 노력보다 혼란이 초래될 수 있음을 강조했습니다.
AI에 대한 우려는 수십 년간 지속되어 온 주제로, 1968년 영화 "2001: 스페이스 오디세이"에서도 잘 묘사되었습니다. 심지어 퍼비 장난감과 같은 소비자 기술도 보안 취약성에 대한 우려를 일으켜 NSA에 의해 감시 장치로 기능할 수 있다는 이유로 금지되었습니다.
AGI(인공지능 일반화)의 조만간 도달할 것이라는 예측으로 대화가 더욱 격화되고 있습니다. AGI는 다양한 작업에서 인간의 지능을 초월하는 AI로 정의되며, 올트먼과 고메즈는 그 도래에 대한 낙관론을 보이는 반면, 르쿤은 막대한 돌파구가 여전히 필요하다고 경고합니다.
2024 에델만 신뢰 바람개비에 나타난 바와 같이, 대중의 AI에 대한 감정은 혼조를 보이고 있습니다. 조사에 따르면 응답자의 35%는 AI를 거부하며, 30%는 이를 수용하고 있습니다. 사람들은 전문가의 지도와 함께 AI 발전의 긍정적인 면을 수용하는 경향이 있습니다.
궁극적으로 AI 발전에 대한 빠른 대응뿐만 아니라 장기적인 결과에 대한 균형 잡힌 시각이 필요합니다. 로이 아마라는 "우리는 기술의 단기적 효과를 과대평가하고 장기적 효과를 과소평가하는 경향이 있다"고 말했습니다.
계속된 탐색과 실험에도 불구하고 AI의 광범위한 성공이 보장되지는 않습니다. AI 테스트 비영리단체 Humane Intelligence의 CEO인 루만 차우드리는 2024년에 "환멸의 골짜기"가 올 것이라 예측하며 기대와 현실이 일치하지 않을 것이라고 경고했습니다.
올해는 AI의 변혁 잠재력을 평가하는 데 있어 중요한 해가 될 것으로 보입니다. 조직들이 개인 및 전문적 용도로 생성 AI를 탐색함에 따라, 기술적 흥미와 실질적 가치를 연결하는 것이 중요합니다. 에센처 CEO 줄리 스위트에 따르면, C-suite 리더를 위한 최근 워크숍은 AI의 잠재력을 실현하기 위한 필수적인 단계입니다.
우리가 AI의 복잡한 환경을 항해하며, 신중한 의사결정과 혁신적 사고가 AI가 인간의 잠재력을 증대시키고 공동의 가치와 정체성을 유지하는 데 핵심이 될 것입니다. AI가 인간의 경험을 선도하기보다는 향상하는 미래를 만들 책임은 우리에게 있습니다.