직장에서 AI 도입이 본격화되면서 생성AI 도구와의 대화 과정에서 개인식별정보(PII), 재무기록, 규제 정보 등 민감 데이터를 다루고 있다. 이 과정에서 발생하는 새로운 형태의 위험은 기존 DLP(Data Loss Prevention)나 보안 툴이 대응하기 어려운 영역이다. 가시성이나 제어 수단이 부족할 경우, 데이터 유출, 내부자 오남용, 규제 위반, 평판 리스크 등 복합적인 위협으로 이어질 수 있다.
글로벌 데이터 보안·프라이버시·컴플라이언스·AI 거버넌스 기업 빅아이디(BigID)가 코파일럿, 챗봇, AI 어시스턴트 등 애플리케이션에서 발생하는 AI 대화 속 민감정보 노출을 원천 차단하는 ‘프롬프트 보호(Prompt Protection)’를 공개했다.

민감정보 보호 위한 주요 기능
이 기능은 기업이 AI 활용 과정에서 데이터 보안을 강화하는 네 가지 핵심 기능을 제공한다.
첫째, 민감 데이터 유출 방지를 위해 레드랙션(redaction)과 마스킹(masking) 정책을 적용, 데이터 맥락을 유지하면서 원본을 보호한다.
둘째, AI 대화 가시성 확보를 통해 프롬프트와 응답 내 PII, 재무정보, 규제 콘텐츠 위반 여부를 탐지하고 하이라이트한다.
셋째, AI 애플리케이션 접근 제어 확장 기능으로, 권한 없는 사용자가 민감정보를 조회하거나 공유하지 못하도록 막는다.
넷째, 조사 속도 가속화 기능을 통해 알림, 대화 타임라인, 사용자 추적을 활용해 인시던트 대응을 신속히 수행할 수 있다.
AI 도입 신뢰성 높이는 안전장치
기업은 AI 모델이 민감정보를 소비하기 전에 권한을 검사하고, 승인된 데이터만 활용되도록 안전한 레이블링(Safe-AI Labeling)을 적용할 수 있다. 이 과정에서 AI 도구의 기능은 유지되며, 동시에 신뢰성과 규제 준수성이 강화된다.
빅아이디 디미트리 시로타(Dimitri Sirota) CEO는 “이번 확장된 접근 제어 기능은 추론 단계에서부터 데이터 노출을 차단하고 권한을 강제하며, AI 모델이 승인된 데이터만 소비하도록 보장한다. 이는 안전하고 신뢰할 수 있는 AI 도입을 위해 매우 중요한 요소”라고 말했다.
관련기사
- 카드 분리·전원 차단 즉시 ‘보이지 않는 데이터’...하드웨어 암호화·은폐 결합한 보안 메모리 카드
- 클라우드·생성AI 위협 대응 통합 보안 솔루션...피싱·랜섬웨어 차단 강화한 다계층 보안 전략
- 다크 웹 스캐닝부터 정책 분석까지, 종합 보안 점검으로 데이터 보호 강화
- 내부자 위협 50% 줄이는 ‘AI-IRM’...자율 대응·데이터 보호 혁신
- 맞춤형 오픈소스 LLM...RAG 파이프라인·멀티모달 기능으로 산업별 업무 자동화 가속
- 데이터 분류 부재, 보안·규정 준수 모두 위협
- 개인도 기업 수준 데이터 보호...이미지 기반 백업과 5TB 저장 무료 제공
- 클라우드플레어, 챗GPT·클로드·제미나이 보안 통합...기업 생성AI 규제 대응 강화
- AI로 의료·제약 규제 데이터 관리...품질검증 수일 내 완료
- AI 기반 엔드포인트 DLP, 실시간 데이터 유출 탐지·자동 차단 기능 강화
- 수동 권한 설정 없애는 관리 자동화...IT 부서 부담↓보안↑
- SaaS 데이터 노출, 몇 분 만에 확인...무료 셀프 서비스형 위험 평가 도구 등장
- 민감 데이터 검색 시장, AI 자동화와 규제 강화로 연평균 21.6% 폭발적 성장
