메타 플랫폼스(Meta Platforms)는 Facebook, Instagram, WhatsApp, Oculus VR의 모회사로서, 이 주에 Ray-Ban Meta 스마트 안경을 위한 새로운 다중 모드 AI를 소개하며 화제를 모으고 있습니다. 음성 복제 AI인 오디오박스(Audiobox) 출시 이후, 메타는 이 혁신적인 AI 기술을 테스트하기 위해 미국에서 베타 시험을 시작했습니다.
메타의 최고 기술 책임자 앤드류 보스워스(Andrew Bosworth)에 따르면, 이 다중 모드 AI는 2024년에 공개될 예정입니다. 그는 인스타그램 비디오에서 “내년에는 안경의 카메라를 활용해 사용자 질문뿐만 아니라 주변 환경에 대한 정보도 제공하는 AI 어시스턴트를 출시할 것”이라고 밝혔습니다. 현재 베타 테스트 프로그램이 진행 중이며, 참여 방법은 아직 공개되지 않았습니다.
329달러에 판매되는 Ray-Ban Meta 스마트 안경은 9월 메타의 연례 커넥트(Connect) 컨퍼런스에서 공개되었습니다. 최신 모델에는 아마존의 알렉사(Alexa)나 애플의 시리(Siri)처럼 음성 명령에 반응하는 기본 AI 어시스턴트가 탑재되어 있지만, 실시간 비디오나 사진을 지능적으로 분석하는 기능은 없습니다.
보스워스는 아트 벽장을 관찰하며 안경을 착용한 모습으로 AI의 잠재력을 설명했습니다. 그는 AI에게 질문했고, AI는 정확하게 그 예술작품을 “나무 조각”으로 식별하며 “아름답다”고 설명했습니다. 이는 AI가 향상된 성능과 상호작용을 위해 연결된 스마트폰을 활용할 수도 있음을 시사합니다.
메타 CEO 마크 저커버그(Mark Zuckerberg) 또한 AI의 능력을 시연하며, 맞춤형 의류 추천, 재치 있는 캡션 생성, 그가 들고 있던 과일 인식, 스페인어에서 영어로의 텍스트 번역 등 다양한 기능을 선보였습니다.
이번 발표는 메타가 자사의 제품에 AI 통합을 위한 노력을 강화하고, Llama 2 모델을 통해 오픈 소스 AI를 촉진하고자 하는 의지를 강조합니다. 생성적 AI가 하드웨어로 천천히 전환해가는 지금, 메타의 이 이니셔티브는 구글 글래스와 같은 이전의 도전과 비교할 때 특히 두드러집니다.
메타의 Ray-Ban 스마트 안경을 위한 다중 모드 AI가 이전 스마트 안경이 겪었던 문제들을 극복할 수 있을까요? 기술이 발전하고 사회적 태도가 변화함에 따라, 이 혁신이 시장에서 자리 잡을지는 시간만이 알 것입니다.