많은 기업들이 AI 도입을 가속하면서 생산성과 효율성은 높아지고 있지만, 동시에 내부 보안 위협과 정책 위반 문제가 새로운 경영 리스크로 부상하고 있다. 특히 AI 의존도가 커질수록 기밀 정보 유출, 규제 위반, 조직 내 신뢰 구조 붕괴 등 복합적인 문제가 발생하고 있으며, 이는 산업 전반에 걸쳐 보안 관리 패러다임의 변화를 요구하고 있다.
AI 보안 전문기업 칼립소AI(CalypsoAI, CEO 돈차드 케이시)가 ‘내부자 AI 위협 보고서(Insider AI Threat Report)’를 발표했다. 이 보고서는 1000명 이상의 미국 사무직 근로자를 대상으로 한 전국 대표 설문 조사 결과를 토대로 작성됐다.
보고서에 따르면, 미국 직장 내 AI 사용이 급격히 확산되면서 회사 정책 위반과 기밀 정보 유출 등 보안 리스크가 심화되고 있는 것으로 나타났다.

응답자의 52%가 회사 정책을 위반하더라도 업무를 더 쉽게 하기 위해 AI를 사용할 의향이 있다고 밝혔다. 전체 근로자의 45%는 동료보다 AI를 더 신뢰한다고 답했으며, 38%는 사람보다 AI 관리자를 선호했다. 특히 3분의 1 이상(34%)은 고용주가 AI를 금지할 경우 직장을 그만두겠다고 응답했다. 이러한 결과는 AI가 단순한 생산성 향상 도구를 넘어 직장 내 신뢰 구조와 업무 방식을 재편하고 있음을 보여준다.
직급·세대·산업 전반으로 확산되는 AI 신뢰와 오용
보고서에 따르면 전체 근로자의 87%는 고용주가 AI 정책을 갖추고 있다고 인식했으나, 절반 이상인 52%는 AI가 업무를 더 쉽게 만든다면 정책을 변경할 의사가 있다고 답했다. 또한 25%는 AI 허용 여부를 확인하지 않은 채 AI를 활용한 경험이 있었다. 근로자 중 28%는 AI를 사용해 민감한 데이터에 접근했고, 동일 비율의 28%는 AI가 작업을 완료할 수 있도록 독점적인 회사 정보를 제출했다고 밝혔다.
최고 경영진에서는 절반(50%)이 인간보다 AI 관리자를 선호했고, 34%는 AI 에이전트와 실제 직원을 구분할 수 있는지 확신하지 못했으며, 38%는 AI 에이전트의 개념조차 모른다고 답했다. 이 집단의 35%는 AI가 업무를 수행할 수 있도록 회사 기밀을 제출했다고 밝혔다.
신입 전문가의 경우 37%가 AI 정책 위반에 죄책감을 느끼지 않는다고 했으며, 21%는 규칙이 불분명해 상황에 따라 행동한다고 답했다. 또한 신입 직원의 33%는 AI 에이전트가 무엇인지 모른다고 했다.
산업별로도 위험 수위가 높았다. 금융업 종사자의 60%는 AI 규정을 위반한 경험이 있었고, 33%는 제한된 데이터에 접근하기 위해 AI를 사용했다. 보안 업계에서는 42%가 정책 위반을 의도적으로 했으며, 58%는 동료보다 AI를 더 신뢰한다고 응답했다. 의료 산업에서는 근로자의 55%만이 회사의 AI 정책을 따르고 있었으며, 27%는 인간 감독자보다 AI에게 보고하는 것을 선호했다. 이러한 결과는 규제가 엄격한 산업에서도 AI 사용이 빠르게 확산되며 보안 위협을 키우고 있음을 보여준다.
AI 보안, 기술을 넘어 사람·행동·신뢰 관리로 확장 필요
칼립소AI의 돈차드 케이시(Donnchadh Casey) CEO는 “이러한 수치는 경각심을 불러일으킬 것이다. 임원들은 위험을 제대로 이해하지 못한 채 AI를 도입하기 위해 경쟁하고, 최전선 직원들은 감독 없이 AI를 사용하며, 심지어 신뢰받는 보안 전문가조차도 자신의 규칙을 어기는 모습을 볼 수 있다. AI의 부적절한 사용은 기업에 치명적일 수 있으며, 이는 미래의 위협이 아니라 이미 오늘날 조직 내에서 발생하고 있다.”라고 경고했다. 그는 AI 보안 관리가 시스템과 기술 차원을 넘어 사람, 행동, 신뢰 붕괴까지 포괄하도록 확대돼야 한다고 강조했다.
보고서는 기업이 AI 활용 정책을 보다 명확하게 정의하고, 전 직급과 전 산업에 걸친 AI 사용 행태를 모니터링하며, 기밀 정보 보호를 위한 교육과 통제를 강화할 것을 제안했다. 이는 AI 시대의 보안이 단순한 기술적 통제에서 전사적 문화와 행동 관리로 진화해야 함을 시사한다.
관련기사
- 맞춤형 AI 취약점 수정 에이전트...한 번의 클릭으로 조직별 코드 수정 제안
- 기업 AI 에이전트 위협 차단, ‘실시간 공격·방어 에이전트’
- 모든 AI 에이전트 한 번에 보호...전사적 AI 에이전트 다층 보안
- 섀도 AI 모델 위험 식별...실시간 탐지·대응으로 기업 보안 강화
- “챗GPT·코파일럿도 뚫렸다...에이전트 하이재킹 ‘에이전트플레이어’ 경고”
- “AI 보안 허점, MCP 메타데이터 조작으로 LLM 통제 뚫린다”
- 생성AI 보안 특화 솔루션 ‘스핑크스 AI’, 공공 도입 확대 기반 마련
- 생성AI 확산 속 섀도우 AI 급증, 기업 보안 적신호...실시간 거버넌스 시급
- AI 활용 늘린 S&P 500 기업, 보안 위협 급증
- ‘생성AI·에이전틱 AI’ 겨냥 사이버 공격 급증...단순한 텍스트 입력으로 10만달러 피해
- 딥페이크 사기 잡는 모바일 AI 보안 솔루션...조작 음성·영상 실시간 탐지로 리스크 차단
- 수천대 AI 서버 취약점 노출...AI 인프라 보안 적신호
- 기업 AI 도입 79%·AI 보안 전략 6%로 격차 심화...보안 현대화 시급
- 생성AI 보안 취약점, 브라우저에서 실시간 점검
- AI·클라우드 확산 속 머신 아이덴티티 보안 리스크 급증
- 사이버 위협 노출 줄이는 'AI 노출 관리 자동화' 솔루션...실시간 대응 및 정확도 향상
- AI 업무 지도화, 자동화 강화·조직 혁신 동시 달성
- 생성AI 활용, 기업 위협하는 사회공학 사기 급증...원인은 재무·보안 단절
- 사이버 인재 선순환, 산업계 보안 역량 강화의 핵심으로
- 기업 60% 데이터 침해 경험, AI 개인정보 보호 경고음
- ‘브랜드쉴드’와 ‘사이브라’, AI 위협 탐지 기술로 한국 보안 시장 공략 가속
