직장에서 AI 도입이 본격화되면서 생성AI 도구와의 대화 과정에서 개인식별정보(PII), 재무기록, 규제 정보 등 민감 데이터를 다루고 있다. 이 과정에서 발생하는 새로운 형태의 위험은 기존 DLP(Data Loss Prevention)나 보안 툴이 대응하기 어려운 영역이다. 가시성이나 제어 수단이 부족할 경우, 데이터 유출, 내부자 오남용, 규제 위반, 평판 리스크 등 복합적인 위협으로 이어질 수 있다.

글로벌 데이터 보안·프라이버시·컴플라이언스·AI 거버넌스 기업 빅아이디(BigID)가 코파일럿, 챗봇, AI 어시스턴트 등 애플리케이션에서 발생하는 AI 대화 속 민감정보 노출을 원천 차단하는 ‘프롬프트 보호(Prompt Protection)’를 공개했다. 

민감정보 보호 위한 주요 기능

이 기능은 기업이 AI 활용 과정에서 데이터 보안을 강화하는 네 가지 핵심 기능을 제공한다. 

첫째, 민감 데이터 유출 방지를 위해 레드랙션(redaction)과 마스킹(masking) 정책을 적용, 데이터 맥락을 유지하면서 원본을 보호한다. 

둘째, AI 대화 가시성 확보를 통해 프롬프트와 응답 내 PII, 재무정보, 규제 콘텐츠 위반 여부를 탐지하고 하이라이트한다. 

셋째, AI 애플리케이션 접근 제어 확장 기능으로, 권한 없는 사용자가 민감정보를 조회하거나 공유하지 못하도록 막는다. 

넷째, 조사 속도 가속화 기능을 통해 알림, 대화 타임라인, 사용자 추적을 활용해 인시던트 대응을 신속히 수행할 수 있다.

AI 도입 신뢰성 높이는 안전장치

기업은 AI 모델이 민감정보를 소비하기 전에 권한을 검사하고, 승인된 데이터만 활용되도록 안전한 레이블링(Safe-AI Labeling)을 적용할 수 있다. 이 과정에서 AI 도구의 기능은 유지되며, 동시에 신뢰성과 규제 준수성이 강화된다.

빅아이디 디미트리 시로타(Dimitri Sirota) CEO는 “이번 확장된 접근 제어 기능은 추론 단계에서부터 데이터 노출을 차단하고 권한을 강제하며, AI 모델이 승인된 데이터만 소비하도록 보장한다. 이는 안전하고 신뢰할 수 있는 AI 도입을 위해 매우 중요한 요소”라고 말했다.

관련기사

저작권자 © 지티티코리아 무단전재 및 재배포 금지