AI 기반 규정 준수 기술, 금융업 중심으로 확산 중

직원 규정 준수(Compliance) 분야는 기존의 문서 기반, 수동 검토 방식에서 벗어나 인공지능(AI)을 활용한 자동화 체계로 빠르게 전환되고 있다. 이 기술은 금융 서비스, 법률, 헬스케어 등 고도의 규제 환경에 놓인 산업에서 특히 주목받고 있다. AI는 정보 검색, 위험 행동 탐지, 규제 위반 사전 예측 등 업무를 지원하며 규정 위반 가능성을 조기에 차단하는 데 활용되고 있다.

직원 규정 준수 기술 솔루션 글로벌 기업 스타컴플라이언스(StarCompliance, 이하 스타)가 발표한 'AI 및 규정 준수 시장 보고서'에 따르면, 현재 AI 도입이 초기 단계에 머물고 있지만 성장세가 뚜렷하다. 조사 대상 기업 중 52%가 이미 정보 검색 및 데이터 보강 등의 업무에 AI를 예비적으로 사용 중이며, 더욱 발전된 자동화 규제 시스템을 도입한 곳은 9%에 불과하다. 하지만 2030년까지는 60% 이상이 고도화된 AI 도구를 도입할 것으로 전망돼, 향후 시장 확장은 빠르게 이뤄질 것으로 예상된다.

데이터 보호, AI 도입의 최대 걸림돌

AI 도입에 대한 기대감과는 별개로, 데이터 프라이버시 문제는 여전히 가장 큰 장애 요소로 지목됐다. 설문에 참여한 기업의 65%는 AI 도입을 가로막는 가장 큰 문제로 데이터 보호를 꼽았으며, 71%는 AI 활용에 필요한 민감 데이터의 양이 프라이버시 우려를 증폭시키고 있다고 응답했다. 특히 규제기관의 감독이 엄격한 금융권에서는 개인정보 및 내부 정보의 보안성 확보가 AI 도입의 전제조건이 되고 있다.

스타의 최고제품책임자(CPO) 켈빈 디킨슨은 "스타는 책임감 있는 AI 활용 원칙에 기반해 제품 설계부터 운영 방식까지 안전성을 확보하고 있다."라며, "스타의 AI 거버넌스 정책은 기술 혁신과 데이터 보호 간 균형을 유지하기 위한 적절한 견제와 절차를 포함하고 있다."라고 강조했다. 이는 AI 도입 과정에서 윤리적 기준과 투명성을 동시에 충족시키려는 노력으로 해석된다.

조직의 준비 수준과 인식, 정책 차이도 뚜렷

이번 조사에서는 기업들이 AI 도입에 대해 갖는 전략과 교육 수준, 정책 운용 방식에서도 다양한 양상이 확인됐다. 47%의 기업은 AI에 대한 체계적인 교육 없이 ‘경험을 통해 배우는’ 방식으로 접근하고 있으며, 70% 이상이 AI 사용에 대한 공식 정책을 갖추고 있는 것으로 나타났다. 다만, 51%는 오픈형 AI 도구의 사용을 금지하고 있어 보안 우려가 실질적인 사용 제약으로 이어지고 있다.

AI가 생성한 출력 결과에 대한 편향 우려도 존재한다. 전체의 43%가 알고리듬의 결정 편향 가능성을 주요 리스크로 인식하고 있으며, 이로 인해 폐쇄형 AI 모델(예: 제미나이 등)의 선호도가 더 높게 나타났다. 폐쇄형 모델을 선호한 비율은 41%로, 오픈형 모델(예: 챗GPT)의 32%를 앞섰다. 이는 보안과 통제 가능성을 더 중시하는 규제 산업의 특성이 반영된 결과다.

공급망 평가엔 AI 기능 고려 미흡...지속적인 논의 필요

기업의 절반(50%)은 AI 도입 여부를 공급업체 선정이나 평가 기준에 반영하지 않고 있는 것으로 나타났다. 이는 조직 내부적으로 AI 기술의 중요성은 인식하면서도, 외부 파트너나 기술 공급자에 대한 AI 활용 수준 평가에는 아직 미흡함을 의미한다. 향후 AI 기반 컴플라이언스 체계가 정착되기 위해서는 외부 파트너십 평가에도 일관된 기준이 도입되어야 한다.

AI는 규정 준수 분야에서도 새로운 기준이 되어가고 있다. 그러나 기술 도입과 함께 수반되는 데이터 프라이버시, 편향 리스크, 정책 미비 등의 과제가 병존하는 만큼, 신중하고도 체계적인 접근이 필수적이다. 산업별 규제 요건에 맞는 AI 적용 전략과 투명한 거버넌스 체계 구축이 향후 이 시장의 지속 성장을 좌우할 것이다.

관련기사

저작권자 © 지티티코리아 무단전재 및 재배포 금지