지난 1년간 인공지능(AI) 환경이 급격하게 변화하면서 생성AI가 빠르게 채택되는 가운데 조직이 기술에 대한 책임을 지는 것이 더욱 어려워지고 책임 있는 AI(Responsible AI, 이하 RAI) 프로그램이 지속적인 발전을 따라가지 못하고 있다.
MIT 슬론 매니지먼트 리뷰(Sloan Management Review, 이하 MIT SMR)와 보스턴 컨설팅 그룹(Boston Consulting Group, 이하 BCG)가 발표한 "타사 AI 툴이 확산됨에 따라 강력한 RAI 프로그램 구축" 연구 보고서에 따르면 조직의 절반 이상(53%)이 자체적으로 설계되거나 개발된 AI가 없는 타사 AI 툴에 전적으로 의존하고 있지만, 전체 AI 관련 장애의 55%는 타사 AI 툴에서 발생하는 것으로 나타났다.

이 보고서는 87개국 59개 산업 분야에서 연간 매출이 최소 1억 달러 이상인 조직을 대표하는 1240명의 응답자를 대상으로 한 글로벌 설문 조사를 기반으로 한다.
엘리자베스 M. 레니어리스(Elizabeth M. Renieris) MIT SMR 객원 편집자이자 이 보고서의 공동 저자는 "AI 환경은 기술적, 규제적 관점 모두에서 지난해 보고서를 발표한 이후 매우 극적으로 변화했다."라며, "사실, 생성AI 도구가 갑작스럽고 빠르게 채택되면서, AI는 대중적인 관심거리가 되었다. 그럼에도 불구하고, 많은 기본적인 것들은 그대로 남아있다. 올해, 우리의 연구는 증가하는 AI의 사용과 위험을 해결하기 위해 RAI 프로그램에 투자하고 확장해 조직이 책임져야 할 시급한 필요성을 재확인했다."고 말했다.
RAI 리더는 설문 조사 샘플의 16%에서 전년 대비 29%로 증가했다. 이러한 진전에도 불구하고 조직의 71%는 리더가 아닌 조직이다. 타사 AI 도구에서 심각한 위험이 발생함에 따라 대부분의 조직이 RAI 노력을 두 배로 강화해야 할 때이다.
조사 대상 조직의 대다수(78%)는 타사 AI에 크게 의존하고 있어 평판 손상, 고객 신뢰 손실, 재정적 손실, 규제 페널티, 규정 준수 문제 및 소송 등과 같은 수많은 위험에 노출되어 있다. 그럼에도 불구하고 타사 AI 도구를 사용하는 조직의 5분의 1은 위험을 전혀 평가하지 못하고 있다.
타사 툴을 평가하기 위해 다양한 접근 방식과 방법을 사용하는 것은 위험을 완화하기 위한 효과적인 전략이다. 7가지 방법을 사용하는 조직은 3가지 방법만 사용하는 조직보다 실수를 발견할 가능성이 2배 이상 높다(51% 대 24%). 이러한 접근 방식에는 RAI 원칙 준수를 의무화하는 계약 언어, 공급업체 사전 인증 및 감사, 내부 제품 레벨 검토, 관련 규제 요구사항 및 업계 표준 준수 등이 포함된다.
규제 환경은 AI 자체 만큼이나 빠르게 진화하고 있으며, 많은 새로운 AI 관련 규제가 순차적으로 적용되고 있다. 조사 대상 조직의 약 절반(51%)은 금융 서비스, 보험, 의료 및 공공 부문의 높은 비율을 포함하여 AI 사용에 적용되는 비 AI 특정 규정의 적용을 받고 있다고 보고한다. 이러한 규정의 적용을 받는 조직은 대상이 되지 않는 조직보다 RAI 리더가 13% 더 많다. 또한 동일한 규제 압력(32% 대 38%)을 받지 않는 상대보다 AI 장애를 더 적게 감지하는 것으로 보고되었다.
CEO는 AI에 대한 조직의 약속을 확인하고 필요한 투자를 유지하는 데 중요한 역할을 한다. RAI 활동에 직접 참여하는 CEO가 있는 조직(예: RAI 관련 고용 결정 또는 제품 수준 토론에 참여하거나 RAI와 관련된 성과 목표 설정)은 그렇지 않은 조직보다 58% 더 많은 비즈니스 이점을 보고한다. 리더 지위에 관계없이 실제 CEO. 또한 RAI에 직접 관여하는 CEO가 있는 조직은 CEO가 손을 대지 않는 조직보다 RAI에 투자할 가능성이 더 높다(39% 대 22%).
보고서는 급변하는 AI 환경과 그와 관련된 내재적 위험을 탐색하기 위해 조직은 ▲성숙한 RAI 프로그램으로 신속하게 전환 ▲타사 툴의 적절한 평가 ▲새로운 규정에 대비한 조치 ▲성공을 극대화하기 위해 RAI 노력에 CEO 참여 ▲RAI에 두 배 투자 하라는 5가지 권고 사항을 제시한다.
BCG의 최고 AI 윤리 책임자이자 보고서 공동 저자 인 스티븐 밀스(Steven Mills) 는 “지금은 조직이 강력한 RAI 프로그램에 두 배로 투자하고 투자할 때이다 . "기술이 RAI 프로그램의 기능을 능가하는 것처럼 느껴질 수 있지만 해결책은 후퇴가 아니라 RAI에 대한 약속을 높이는 것이다. 조직은 비즈니스 가치를 제공하고 위험을 관리하기 위한 노력 뒤에 리더십과 리소스를 배치해야 한다."
스티븐 밀스(Steven Mills) BCG의 최고 AI 윤리 책임자이자 이 보고서의 공동 저자는 "이제 조직이 두 배로 늘어나고 강력한 RAI 프로그램에 투자해야 할 때이다."라며, "이 기술이 RAI 프로그램의 기능을 능가하는 것처럼 느껴질 수도 있지만, 해결책은 RAI에 대한 헌신을 늘리는 것이지 철회하는 것이 아니다. 조직은 비즈니스 가치를 제공하고 리스크를 관리하기 위한 노력 뒤에 리더십과 리소스를 배치해야 한다."고 강조한다.
관련기사
- RPA와 결합된 생성AI로 비즈니스 생산성 가속화 한다
- 인간에게 안전하고 유익한 ‘AI 거버넌스’ 연평균 35.6% 폭풍성장
- 책임 있는 AI 발전에 협력하는 기업들
- 'AI 윤리·안전성' 규제 대응 위한 표준·인증 프로그램 등장한다
- IEEE, AI 윤리 및 거버넌스 표준 무료 제공
- 2023년 데이터 관리 시장 5대 트렌드
- [기고] AI 활용한 부업, 판도를 바꾼다
- AI로 비정형 의료 데이터 분석 환경 개선한다
- 개발 생산성 30% 향상되는 챗GPT 기반 코드 생성AI
- 책임 있는 AI 표준, 어떻게 만들까?
- 불확실한 경제 시대, 금융권의 생존법
- “경제 성장을 위한 실용적이고 윤리적인 AI 법 필요”
- 이제는 AI 법에 주목해야 할 때
- 의료계 생성AI 계획 ‘6%’에 불과
- AI 기반 합성 미디어에 대한 우리의 자세
- 우리 회사 '평판' 높이는 AI 활용법
- 생성AI 보안 강화하는 지능형 방화벽 ‘오토가드’
- AI 활용 확대로 고속 성장하는 ‘AI 신뢰·위험·보안 관리’ 시장
- 사내 법무팀, 43%가 ‘AI 모른다’
- AI가 사이버 폭력 문제의 해결책이 될 수 있을까?
- 생성AI의 저작권 문제에 대한 해결방안 나올까?
- [기고] AI 윤리 문제 해결에 모두가 동참해야 하는 이유
- AI 챗봇의 미래
- AI 활용 극대화하는 ‘AI 성숙도 평가’
- 데이터 기반 앱 개선 '리뷰 관리 솔루션', 타사 앱 리뷰도 활용
- 국내 AI 신뢰성 단체표준 제정, "AI 윤리·신뢰성 확산과 산업 활성화 기대"
