생성AI의 사용이 업무 현장에서 빠르게 확산되고 있다. 직원들은 생성AI로 일상적인 업무를 간소화하고 생산성을 높이고 있다. 그러나 기업이 명확한 AI 사용 정책을 마련하지 않으면 데이터 유출, 잘못된 정보 생성, 규정 위반과 같은 심각한 위험에 노출될 수 있다. 

실제로 광범위하게 AI가 채택되고 있지만, 이를 관리하는 공식적인 정책을 마련한 기업은 소수에 불과하다. 따라서 AI 도입의 장점을 극대화하면서, 관련 위험을 최소화할 수 있는 체계적인 가이드라인이 필요하다.·

광고 및 마케팅 기술 플랫폼 기업 다이렉트 디지털 홀딩스(Direct Digital Holdings)이 기업 맞춤형 생성AI 정책을 수립할 수 있는 ‘직원 대상 생성AI 사용 정책 프레임워크’를 발표했다. 

다이렉트 디지털 홀딩스의 AI 위원회가 개발한 이 프레임워크는 기업 맞춤형 AI 사용 정책을 수립할 수 있다. 이를 통해 업무 환경에서 AI 사용에 대한 명확한 기대치와 안전장치를 설정할 수 있다.

이 프레임워크의 주요 항목에는 ▲윤리적 AI 사용 및 투명성 확보 ▲AI의 가치 창출 가능성과 불필요한 위험 발생 가능성 식별 ▲민감한 정보를 보호하는 데이터 프라이버시 가이드라인 제공 ▲인간의 최종 검토 및 의사결정 ▲ AI의 지속적인 평가 및 감사를 위한 순환 구조 설계 등이 포함되어 있다.

이는 비즈니스 리더, IT 팀, 컴플라이언스 담당자 등 다양한 조직 구성원이 산업별 요구사항, 규제 조건 및 기업 맞춤형 정책을 수립할 때 기본 자료로 활용될 수 있다. 또한,  기업이 AI 기술 변화에 민첩하게 대응할 수 있는 실질적인 로드맵을 제공한다.

기업은 AI 도입 과정에서 발생할 수 있는 위험을 효과적으로 관리하고, 업무 내 AI 사용을 안전하고 책임 있게 구현해야 한다. 따라서 AI 거버넌스에 대한 효과적인 관리와 정책 수립이 필수적이다. 명확한 지침을 설정해야 정보에 기반한 AI 채택 문화를 조성하고, 고객, 파트너 및 이해관계자와의 신뢰를 유지하면서 경쟁력을 확보할 수 있다.

관련기사

저작권자 © 지티티코리아 무단전재 및 재배포 금지