생성AI가 개인·기업의 생산성 도구로 자리 잡으면서, 사용자 로컬 환경에 저장된 방대한 파일을 즉시 활용할 수 있는 능력이 중요한 경쟁 요소로 떠오르고 있다. 대부분의 LLM 기반 애플리케이션은 문서 일부만 업로드해 맥락을 보충하는 방식에 의존해, 사용자 PC 내 전체 파일 구조와 문서 정보를 활용하지 못하는 한계가 있었다.

이로 인해 중요한 자료가 로컬에 존재함에도 모델이 이를 해석하지 못해 정확한 답변을 제공하기 어려웠다. 기업 환경에서는 보안 요구사항으로 인해 클라우드 기반 분석이 제한되면서, 로컬에서 직접 인덱싱·검색·추론을 수행하는 AI 에이전트의 필요성이 대두되고 있다.

엔비디아(NVIDIA)가 넥사 AI(NEXA AI)와 협력해 로컬 파일 기반 인텔리전스를 강화한 하이퍼링크(Hyperlink)를 RTX AI PC에서 가속 지원하며 새로운 파일 검색·RAG 기반 업무 생산성 패러다임을 제시했다.

엔비디아가 RTX PC에서 넥사 AI '하이퍼링크' 로컬 에이전트 가속를 지원한다.
엔비디아가 RTX PC에서 넥사 AI '하이퍼링크' 로컬 에이전트 가속를 지원한다.

엔비디아는 넥사 AI의 로컬 에이전트 하이퍼링크가 RTX AI PC에서 공식 가속된다고 발표했다. 새 버전은 검색 증강 생성(RAG) 인덱싱 속도가 3배, LLM 추론 속도가 2배 향상됐으며, 수천 개의 로컬 파일을 빠르게 분석해 맥락 기반 답변을 제공한다.

문서, 슬라이드, PDF, 이미지 등 모든 파일을 사용자 기기에서 자체적으로 인덱싱해 즉각적인 질문 응답이 가능하다. 모든 데이터는 기기 내에만 저장돼 개인정보와 기업 기밀이 외부로 전송되지 않는다. 하이퍼링크는 회의 준비, 보고서 분석, 콘텐츠 제작, 학습, 디버깅 등 다양한 워크플로우에 활용되고 있다.

RTX 가속으로 RAG 3배·추론 2배...로컬 파일 즉시 활용

하이퍼링크는 기존 LLM 기반 채팅 애플리케이션이 접근하지 못했던 사용자 PC 내부 파일을 직접 분석해 검색 가능한 인덱스로 변환한다. 문서명과 무관하게 내용 기반으로 정보를 추출해, 사용자의 자연어 요청을 맥락적으로 이해한 응답을 생성한다.

RTX AI PC 가속 기능이 적용된 최신 버전은 1GB 폴더 인덱싱 시간이 기존 15분에서 약 4~5분으로 단축됐으며, RTX 5090에서 벤치마크한 결과 LLM 추론 속도 또한 2배 향상됐다. 이는 토큰 처리량 기반 분석이며, 인덱싱과 추론 두 영역에서 모두 성능 향상을 실현해 복잡한 파일 구조를 다루는 작업에 적합하다.

하이퍼링크는 다양한 출처의 아이디어를 연결하고 문서 간 관계를 분석해 명확한 출처 표기와 함께 논리적인 답변을 생성하며, 콘텐츠 제작·전략 보고서 분석 등에서 높은 활용성을 제공한다.

개인 파일만으로 즉시 작업...회의·보고서·학습·디버깅까지 확장

하이퍼링크는 파일명과 관계없이 내용 기반으로 맥락을 이해하고, 로컬 데이터만으로 즉시 인사이트를 제공한다. 회의 준비에서는 메모와 회의록에서 핵심 내용을 요약하고, 보고서 분석에서는 업계 보고서 전반에서 근거 데이터를 인용해 답변을 생성한다.

콘텐츠 제작 환경에서는 수년간 저장된 노트와 초안을 기반으로 글쓰기와 영상 기획을 지원하며, 학습에서는 강의 노트·슬라이드·튜토리얼을 동시에 검색해 핵심 개념 복습을 돕는다. 엔지니어링 분야에서는 코드 내 문서와 주석을 분석해 오류 원인 파악과 버전 충돌 해결에도 활용된다. 모든 데이터는 기기 내에서만 처리돼 클라우드 전송 없이 보안이 유지되며, 민감 정보를 다루는 사용자도 안심하고 사용할 수 있다.

관련기사

저작권자 © 지티티코리아 무단전재 및 재배포 금지