인공지능(AI)이 산업을 빠르게 변화시키고 운영 환경을 재편하면서, 조직들은 복잡하고 진화하는 규제 환경을 극복해야 할 상황에 직면했다. 이에 대응하여 인포테크 리서치 그룹(Info-Tech Research Group)은 ‘AI 규제 준비(Prepare for AI Regulation)’라는 새로운 연구 결과와 지침을 발표했다.
이 자료에서 인포테크는 조직들이 AI와 관련된 잠재적 위험으로부터 사용자를 보호해야 할 책임이 커지고 있다고 강조한다. 이러한 위험에는 허위 정보, 불공정한 편견, 악의적 사용, 사이버 보안 위협 등이 포함된다. 그러나 조직 내 기존의 많은 위험 및 거버넌스 프로그램들은 AI 애플리케이션의 도입과 그에 따른 영향을 예상하여 설계되지 않았다.
인포테크는 조직들이 앞으로 나올 자발적 또는 법제화된 AI 규제에 부합하도록 데이터 및 AI 거버넌스 프로그램을 강화할 것을 권고한다.
인포테크의 연구에 따르면, AI 개발 및 배포를 관리하기 위한 책임 있는 AI 원칙을 수립하고 운영하는 것이 조직에 매우 중요하다. 여기에는 AI 애플리케이션에서 윤리적 지침, 투명성, 책임성, 공정성을 포함하는 강력한 프레임워크를 만드는 것이 포함된다. IT 리더들이 AI 거버넌스를 조직의 전사적 거버넌스 프로그램과 통합하여 AI 위험과 기회의 관리를 일관되고 포괄적으로 접근하는 것이 중요하다.

인포테크는 IT 리더들이 AI 위험에 대해 계획하고 해결하며 규제 준수를 이행하기 위한 6가지 책임 있는 AI 지침 원칙과 행동지침을 상세히 제시했다.
① 데이터 프라이버시
⦁ 조직에 적용되는 개인정보 보호법 및 프레임워크 이해: 현지 및 국제적인 데이터 개인정보 보호 규정 준수를 확인하기 위해 철저한 평가를 수행한다.
⦁조직의 비즈니스 프로세스를 거치는 모든 개인 데이터의 맵 작성: 개인 데이터가 어떻게 수집, 저장, 처리, 공유되는지 파악하고 문서화하기 위해 상세한 데이터 흐름 다이어그램을 개발한다.
⦁데이터 수집 및 저장 최소화: 수집 및 저장되는 개인 데이터의 양을 줄이기 위해 데이터 최소화 전략을 구현하여 필요한 데이터만 보관되도록 한다.
② 공정성 및 편향 감지
⦁데이터와 알고리듬에서 편향 가능성 원인 파악: 편향을 탐지하고 완화하기 위해 데이터 세트와 알고리듬에 대한 정기적인 감사와 평가를 수행한다.
⦁접근성 및 포용성에 관한 법률 준수: AI 시스템이 관련 접근성과 포용성 법률을 준수하여 설계되고 배포되도록 하여 모든 사용자에게 동등한 접근성을 제공한다.
⦁훈련 데이터의 다양성 보장: 편향을 피하고 공정성을 향상시키기 위해 AI 모델 훈련에 다양하고 대표성 있는 데이터 세트를 활용한다.
③ 설명 가능성 및 투명성
⦁사용자와 주요 이해관계자에게 결정이 어떻게 이루어졌는지 알리는 방식으로 설계: AI 시스템이 결정에 도달하는 방식을 명확히 설명하는 사용자 친화적인 설명과 문서를 개발한다.
⦁훈련 데이터와 방법론 공개: AI 모델을 훈련하는 데 사용된 소스와 방법론을 공개적으로 공유하여 투명성을 유지한다.
⦁데이터 라벨링 강화: AI 훈련 데이터의 명확성과 정확성을 보장하기 위해 엄격한 데이터 라벨링을 구현한다.
④ 안전 및 보안
⦁책임 있는 설계, 개발 및 배포 모범 사례 채택: 확립된 모범 사례를 따라 AI 시스템의 안전하고 보안된 개발 및 배포를 보장한다.
⦁배포자에게 시스템의 책임 있는 사용에 대한 명확한 정보 제공: 최종 사용자와 배포자에게 AI 기술의 책임 있고 윤리적인 사용에 대한 포괄적인 지침과 문서를 제공한다.
⦁사이버 보안 조치 촉진: 잠재적 위협과 취약점으로부터 AI 시스템을 보호하기 위해 강력한 사이버 보안 프로토콜을 구현한다.
⑤ 유효성 및 신뢰성
⦁성능을 지속적으로 모니터링, 평가, 검증: 정확성과 신뢰성을 보장하기 위해 AI 시스템 성능을 정기적으로 평가하고 검증한다.
⦁출처 추적 제공: 추적성과 책임성을 보장하기 위해 AI 모델에 사용된 데이터의 기원과 이력에 대한 상세한 기록을 유지한다.
⦁훈련 데이터와 수집된 데이터의 품질 및 오류 가능성 평가: 오류를 식별하고 수정하기 위해 훈련 및 운영 데이터에 대한 지속적인 품질 평가를 수행한다.
⑥ 책임성
⦁인간의 감독 및 검토 구현: 윤리적이고 책임 있는 사용을 보장하기 위해 AI 시스템에 대한 정기적인 인간의 감독 및 검토 프로세스를 수립한다.
⦁주요 이해관계자에게 위험 관리 책임과 역할 할당: 조직 내에서 AI 관련 위험을 관리하기 위한 명확한 역할과 책임을 지정한다.
⦁위험 관리 시스템과 통합: AI 거버넌스가 조직의 전반적인 위험 관리 프레임워크와 원활하게 통합되도록 한다.
관련기사
- 차세대 IT 서비스 관리 3단계...IT 서비스에서 기업 서비스로 전환
- 비즈니스 목표 달성하는 “AI 기반 데이터 전략”
- 생성AI 시대의 선제적 위험 관리 전략
- 데이터 기반 의사결정 핵심 ‘고급 보고 및 분석’ 향상 전략
- 은행에 필요한 5대 애자일 요소
- 금융계 ‘IT 현대화’에 필요한 5대 요소
- AI 솔루션 선택 시 고려할 3대 요소
- 인더스트리 4.0과 5.0 도입 가로막는 ‘6가지 장애물’
- 도소매 산업 손실막는 ‘AI’
- 성공적인 ‘스마트 제조 5.0’ 달성 전략
- AI가 정부 서비스에 도움이 될까?
- 2024년 기업의 당면 과제 해결할 ‘AI 기반 IT’
- AI 성공 열쇠 ‘실시간 데이터 접근과 보안’
- 제로스러스트.ai, 무료 ‘AI 보안 및 규제 준수 진단 도구’ 출시
- 기업용 ‘장기 문맥 오픈 AI 모델’…‘고성능·고품질·저지연’ AI 에이전트 개발 최적화
- 공공기관 핵심 시스템 교체 시 고려 사항 5가지
- 사이버 보안과 AI를 성공적으로 통합하려면
- EU AI 법안이 소송에 미치는 영향
- 90% 비용 절감되는 AI 경비원
- 신뢰할 수 있는 AI 골라내는 'AI 에이전트 평가·최적화 솔루션'
- 소형 금융 기관의 성공적인 AI 도입법
- ‘위험 오케스트레이션’ 규정 준수 법적 부담 해결책
- AI 거버넌스 리소스 부족 문제, 해결책은 ‘AI 거버넌스 프레임워크’ 구축
- 규제 준수를 위한 오픈소스 분석 및 동의 관리 솔루션
- AI 기반 '프라이버시 강화 기술' 솔루션...보안성 극대화
- ‘법률 AI’ 수천 건 계약 동시 분석·자동화로 비즈니스 문제 해결
- ‘대규모 AI 탐지 도구’…AI 보안 준수 규정·가이드라인 충족
- 국내 인공지능 법제화 속도내나
- 과기정통부, ‘AI기본법’ 하위범령 정비단 본격 출범...민관 투자 활성화 기대
- ‘기업이 직면한 5대 보안 과제와 대응 전략’
