AI 대중화와 함께 고성능 대규모언어모델(LLM)의 추론 환경이 빠르게 확산되고 있으나, 기업은 여전히 민감한 데이터 노출 위험이라는 구조적 문제에 직면해 있다. 특히 관리형 추론 엔드포인트를 사용할 경우, 입력과 출력 단계 모두에서 일반 텍스트 형태로 데이터가 노출될 수 있다는 점이 보안상의 치명적인 약점으로 지적된다.

기존 LLM 환경은 암호화된 데이터를 직접 실행할 수 없어, 추론 시 민감한 정보가 일반 텍스트로 노출되는 구조적 한계가 존재했다. 전송 중 혹은 저장 중 데이터 보호는 가능하지만, 추론 시점의 노출은 여전히 보안의 사각지대로 남아 있다. 이는 잘못된 컨테이너 설정이나 약한 접근 제어만으로도 데이터 유출이 발생할 수 있음을 의미한다.

AI 개인 정보 보호 서비스 기업 프로토피아 AI(Protopia AI)가 AI 인프라 기업 람다(Lambda)와의 협력해 LLM 기반 추론 전주기에서 프롬프트와 응답을 포함한 모든 데이터가 일반 텍스트로 노출되지 않도록 보호하는 ‘왕복 추론 데이터 보호(Roundtrip Protection)’ 기술을  제공한다고 발표했다.

민감 데이터 보호 기

양사가 개발한 서비스는 프롬프트/응답을 완전히 비공개로 유지하며, 프롬프트 입력에서 LLM 출력에 이르기까지 클라이언트의 신뢰할 수 있는 환경 외부에서 민감한 데이터가 절대로 보이지 않도록 한다.

이 솔루션은 프로토피아AI의 독점 기술인 ‘스테인드 글라스 트랜스폼(Stained Glass Transform, 이하 SGT)’을 활용해, 클라이언트의 데이터가 신뢰할 수 없는 환경에서도 복호화 없이 안전하게 추론 처리될 수 있도록 지원한다. 이를 통해 기업은 멀티 테넌트 환경에서도 데이터의 완전한 기밀성과 소유권을 유지할 수 있다.

프로토피아 AI의 왕복 보호 기술은 프롬프트 입력에서 LLM 출력에 이르기까지 클라이언트의 신뢰할 수 있는 환경 외부에서 민감한 데이터가 절대로 보이지 않도록 지원하는 솔루션으로, 기업이 멀티 테넌트 환경에서 관리형 추론 엔드포인트를 활용하는 경우에도 프롬프트와 응답 모두에 대한 완전한 소유권을 유지할 수 있도록 한다.

이 파트너십은 엔터프라이즈 AI가 단순한 실험을 넘어, 실질적인 비즈니스 가치 창출 수단으로 기능하기 위한 전환점이 되고 있다. 왕복 추론 보호 솔루션은 비용 효율성과 기밀성, 성능을 동시에 충족시키며, 데이터 민감도와 보안 수준이 높은 산업군에서도 고급 AI 모델의 적용 가능성을 대폭 확장시킨다.

프로토피아 AI의 CEO 에이만 에브라히미(Eiman Ebrahimi)는 “람다와의 파트너십은 개인 정보 보호, 성능 및 확장성이 함께하고, AI 추론 인프라가 클라이언트에서 클라우드를 거쳐 클라이언트에 이르는 전체 왕복 과정에서 데이터 개인 정보 보호와 함께 액세스할 수 있는 새로운 장을 연다.”라고 전했다.

람다의 제품관리 이사 맥스 개리슨(Maxx Garrison)은 “이 통합 솔루션은 규제 산업에서 AI 모델을 보다 안전하고 자신 있게 운영할 수 있는 기반을 제공하며, 기업들이 추론 워크로드를 효율적으로 확장하고 보안을 유지할 수 있도록 한다.”고 설명했다.

관련기사

저작권자 © 지티티코리아 무단전재 및 재배포 금지