오픈 AI가 챗GPT를 대중에게 공개한 지 1년 만에 AI가 세상과 직장을 재편했다. 글로벌 사이버 보안 기업 콜리드(Kolide)는 최근 1년 만에 생성AI 기술의 놀라운 채택을 조명하는 섀도우(Shadow) IT 보고서를 발표했다.
이번 보고서는 디멘져널 리서치(Dimensional Research)와 협력하여 300명이 넘는 지식 근로자를 대상으로 실시한 설문 조사를 바탕으로 한다.
보고서에 따르면 응답자의 무려 89%가 최소한 한 달에 한 번 업무에 생성AI 도구를 사용하는 것으로 나타났다. 이러한 도구에는 작업 작성을 위한 챗GPT 및 코딩을 위한 깃허브 코파일럿(GitHub Copilot)과 같은 애플리케이션이 포함된다.

직장에서 AI가 널리 사용되고 있음에도 불구하고, 직원들에게 AI의 위험에 대해 교육하는 기업은 56%에 불과한 것으로 나타났다.
그러나 이번 조사에서는 AI 거버넌스에 우려되는 격차도 드러났다. 많은 기업이 직원들에게 AI 수용을 장려하거나 요구하고 있지만 책임감 있고 안전한 사용에 대한 적절한 교육을 제공하지 못하고 있다.
직장 내 AI의 주요 위험
직장 내에서 우려하고 있는 AI 위험으로는 오류, 표절, 보안 등이다.
① AI 오류 : 생성AI 도구, 특히 LLM(대형 언어 모델)은 오류나 "환각"이 발생하기 쉽다. AI로 인해 생성된 부정확성이 법적, 평판, 재정적으로 미칠 수 있는 영향은 경계심 있는 감독의 필요성을 강조한다.
② AI 표절: AI가 생성한 콘텐츠가 표절인지 저작권 침해인지에 대한 논쟁이 진행 중이다. 작가, 코미디언, 개발자가 관련된 소송에서는 법적 영향을 피하고 원본 작품의 품질을 유지하기 위해 AI 사용에 대한 가시성이 필요하다는 점을 강조한다.
③ AI 보안 위험 : AI는 생성된 코드에 취약성과 보안 결함을 도입하여 데이터 유출 및 해킹의 위험을 초래한다. AI로 위장한 악성코드의 등장으로 보안 환경이 더욱 복잡해지면서 민감한 정보를 보호하기 위한 강력한 조치가 필요해졌다.
섀도우 IT 보고서 주요 결과
직원의 AI 사용을 자세히 조사한 이번 보고서에서는 몇 가지 놀라운 시사점이 발견됐다.
68%의 기업이 AI 사용을 허용한다. AI 사용이 허용된 직원의 비율 (68%)과 실제로 사용하는 직원의 비율(89%) 사이에 상당한 격차가 있어 AI로 생성된 작업에 대한 감독과 조사가 부족하다는 점이 발겨됐다.
직원들에게 AI 위험에 대해 교육하는 기업은 56%에 불과하다. AI가 널리 사용됨에도 불구하고 위에서 언급한 위험에 대해 직원을 교육하는 기업은 절반 미만이다.
근로자는 동료의 AI 사용을 과소평가한다. 근로자의 대부분(49%)은 동료 중 AI 기반 애플리케이션을 사용하는 사람은 10% 미만이라고 생각한다. 근로자 중 1%만이 실제 수치가 90%에 가깝다고 정확하게 추정한다.
AI 허용 가능한 사용 정책 구현 필요
콜리드는 AI 허용 사용 정책의 즉각적인 개발 및 구현이 필요하다고 강조하며 다음과 같은 정책의 필요성을 제시한다.
① 작업자 AI 사용에 대한 가시성 확보 : 직원이 AI를 사용하는 방법과 이유를 이해하기 위한 비판단적인 커뮤니케이션 채널을 구축하고 위험 및 보다 안전한 대안에 대한 교육을 촉진한다.
② 가장 위험한 형태의 AI 방지 : 승인되지 않은 도구 및 AI 기반 브라우저 확장 프로그램 차단을 포함하여 안전하지 않은 AI 사용을 방지하기 위한 시행 가능한 조치를 만든다 .
③ AI 사용 정책 수립을 위한 부서 간 의견 확보 : 조직 내 다양한 부서의 요구 사항을 고려하는 법적, 실무적 포괄적인 정책을 개발한다. 데이터 노출, 편견 회피, 승인된 AI 도구 사용과 같은 문제에 대해 직원을 교육한다.
책임 있는 AI 사용을 위한 강력한 프레임워크를 구축해 조직은 위험을 완화하고 윤리적 관행을 보장하는 동시에 생성AI의 혁신적인 힘을 활용할 수 있다.
관련기사
- “대다수 기업, 생성AI 보호에 데이터 보안 플랫폼 활용”
- AI 활용 극대화하는 ‘AI 성숙도 평가’
- 도·소매업 가치 올리는 생성AI 활용법
- 인간에게 안전하고 유익한 ‘AI 거버넌스’ 연평균 35.6% 폭풍성장
- [기고] AI 시대에 필요한 리더십
- 고객과 은행을 모두 이롭게 하는 AI
- 국내 기업 중 AI 도입과 활용이 준비된 기업은 5%에 불과
- 교묘해지는 합성 신원 사기, 빈틈 없이 막는 솔루션
- 2024년 우리가 주의해야 할 사이버 위협
- 구글 클라우드의 보안 위협 해결법 '생성AI'
- [기고] 안전하고 정확한 AI와 ML을 위한 '불변 스토리지'
- 기업에 필요한 차세대 AI 활용 전략
- 전자상거래 구매율 높이는 “AI 기반 SEO 활용법”
- [2024년 전망] AI로 변화될 현실
- 경기 침체 극복하는 '핵심 인재 관리 3단계 전략'
- AI/ML 기반 지능형 ID·거버넌스 관리 플랫폼, 직원 관리 효율↑
- 안전하고 책임감 있는 AI 발전 위한 글로벌 협력체 ‘AI 얼라이언스’ 출범
- 프로세스 마이닝 적용 보안 플랫폼, 보안 가시성↑
- 생성AI 구축 시 ‘강력한 데이터 보안’ 우선
- 다양한 방언도 쉽게 익히는 AI 기반 음성 플랫폼
- [기고] 대형 언어 모델의 역사
- ‘비밀번호 없는’ 보안 공유 웹 브라우저
- [기고] 생성AI에 대한 세 가지 신화와 이를 깨뜨리는 방법
- 기업 71%, 사이버 범죄 증가에도 물리 보안에 AI 통합 안해
- 상황별 코드 지식 즉각 제공 'AI 코딩 도우미' 개발자 환영
- 기업 데이터 보호 최전선 ‘데이터 유출 기술’ 2031년 2175억 달러로 폭풍성장
- [기고] LLM 교육 자료의 저작권이 유지될까?
- 도박 정보 파일 위장 악성코드 주의보
- 체크포인트, AI 코파일럿·인피니티 플랫폼 출시한다
- ‘AI∙생성AI 때문에’ 데이터 보안 위협 증가
- 고도화된 ‘AI 위협’은 맞춤형 ‘AI로 방어’
- AI 에이전트로 대응하는 AI 기반 사이버 공격
- 몇 번의 클릭만으로 ‘섀도 앱 관리’
- 책임 있는 AI 거버넌스 구축 전략
- 태니엄-MS 코파일럿, 실시간 AI 기반 XEM 사이버 보안 기능 제공
- ‘크라우드 매치’ 기술로 AI 편향 평가
- 무하유, 문서 비교·검사 서비스 ‘카피킬러 DIFF’ 출시
