Nvidia는 Windows AI PC에서 개인화된 로컬 AI 챗봇을 생성하는 "Chat with RTX" 기능을 출시합니다. 이 혁신은 Nvidia가 그래픽 처리 장치(GPU)를 활용하여 AI를 주류 도구로 발전시키려는 최신 노력을 나타냅니다.
Chat with RTX의 주요 기능
로컬 AI 상호작용
Chat with RTX는 사용자가 개인화된 생성적 AI의 힘을 직접 자신의 기기에서 활용할 수 있도록 지원합니다. 이 기술은 데이터 센터 컴퓨팅에 대한 의존도를 최소화하는 검색 보강 생성(RAG) 및 TensorRT-LLM 소프트웨어를 활용하며, AI 대화 중 데이터 유출 우려를 해소하여 사용자 프라이버시를 강화합니다.
챗봇 혁신
전통적인 챗봇은 종종 Nvidia GPU가 지원하는 클라우드 서버에 의존하지만, 새로운 Chat with RTX는 최소 8GB의 비디오 RAM(VRAM)을 갖춘 GeForce RTX 30 시리즈 GPU 이상의 처리 능력을 활용할 수 있게 합니다. 이러한 변화로 사용자는 생성적 AI를 로컬에서 즐길 수 있습니다.
개인화된 AI 경험
Nvidia는 Chat with RTX가 단순한 챗봇이 아니라 맞춤형 AI 동반자라고 강조합니다. 로컬 GeForce 기반 Windows PC를 통해 사용자는 뛰어난 속도와 프라이버시로 생성적 AI를 경험할 수 있습니다. 이 애플리케이션은 RAG 및 TensorRT-LLM 소프트웨어를 사용하여 로컬 데이터 세트를 기반으로 빠르고 맥락에 맞는 응답을 제공합니다. 사용자는 이 도구를 자신의 로컬 파일과 연결하여 Mistral이나 Llama 2와 같은 인기 오픈 소스 대형 언어 모델을 위한 데이터 세트를 생성할 수 있습니다.
여러 파일을 뒤지지 않고 자연어 쿼리(예: 음식점 추천 요청)를 입력하면 Chat with RTX가 신속하고 맥락에 맞는 답변을 제공합니다. 이 도구는 .txt, .pdf, .doc/.docx, .xml 등 다양한 파일 형식을 지원하여 사용자 친화적인 경험을 제공합니다.
멀티미디어 콘텐츠 통합
Chat with RTX는 YouTube와 같은 멀티미디어 출처에서 정보를 통합할 수 있는 능력으로 주목받습니다. 이 기능은 사용자에게 인플루언서 영상에서 영감을 받은 여행 조언이나 교육 채널의 튜토리얼에 대한 질문을 할 수 있게 합니다.
로컬 처리 기능 덕분에 이 애플리케이션은 빠른 결과를 보장하며, 사용자 데이터는 기기에 안전하게 저장되어 클라우드 서비스의 필요성을 없애고 제3자의 접근으로부터 민감한 정보를 보호합니다.
시스템 요구 사항 및 미래 기회
Chat with RTX를 사용하기 위해서는 최소 8GB VRAM을 갖춘 GeForce RTX 30 시리즈 GPU와 Windows 10 또는 11 및 최신 Nvidia GPU 드라이버가 필요합니다. RTX GPU로 대형 언어 모델을 최적화하려는 개발자는 GitHub에서 TensorRT-LLM RAG 개발자 참조 프로젝트에 접근할 수 있습니다. Nvidia는 개발자들이 2월 23일까지 진행되는 Generative AI on Nvidia RTX 개발자 콘테스트에 참여하도록 초대하며, 참가자들에게 GeForce RTX 4090 GPU와 Nvidia GTC 전체 컨퍼런스 패스의 기회를 제공합니다.
Chat with RTX 기술 데모는 현재 무료로 다운로드 가능합니다.