모든 부문의 조직이 혁신을 주도하기 위해 AI 활용을 시작함에 따라, 책임감 있고 투명하며 안전하게 AI를 배포하는 것의 중요도가 높아지고 있다. 이에 공정성, 편향성, 설명 가능성 및 거버넌스에 대한 우려가 높아짐에 따라 주요 산업 표준에 부합하면서 취약점과 격차를 식별하기 위한 구조화된 전문가 주도의 다양한 접근 방식들이 제시되고 있다.

AI, 사이버 방어 및 규정 준수 서비스 기업 이씨퍼스트(ecfirst, CEO 알리 파브라이)가 기업이 NIST AI 위험 관리 프레임워크(AI RMF) 및 ISO/IEC 23894 및 42001의 모범 사례를 활용해 인공 지능 시스템과 관련된 위험을 사전에 식별, 평가 및 관리할 수 있도록 지원하는 ‘AI 위험 평가(AI Risk Assessment)’ 프로그램을 출시했다.

이씨퍼스트 AI 위험 평가 프로그램은 리더십 역할 및 내부 통제를 평가하는 거버넌스 및 감독 구조 검토가 먼저 시작된다. NIST AI RMF 및 ISO/IEC 42001과의 연계를 보장하면서 데이터 품질, 모델 정확성, 편향성 및 적대적 위협과 관련된 위험을 식별한다.

또한 공정성, 투명성 및 설명 가능성을 다루고 보안 및 개인 정보 보호 장치를 평가하며, EU AI 법률 및 미국 행정 명령을 포함한 새로운 규정 준수를 지원하기 위해 AI 정책 개발 또는 개선을 지원한다.

이러한 노력의 일환으로, AI 위협 평가 프로그램은 AI 아카데미 포털(AI Academy Portal)을 통해 자율 학습 온라인 과정을 제공한다. 학습자는 정책 및 거버넌스 연습에 대한 실시간 피드백을 제공하는 AI 기반 보조 장치와 상호 작용한다. NIST AI RMF, ISO/IEC 42001 및 EU AI 법률에 맞춰진 이 프로그램은 실무 전문 지식을 구축하고 AI 위험 평가 및 사이버 방어 기술을 검증하는 인증 시험으로 마무리된다.

이씨퍼스트의 CEO인 알리 파브라이(Ali Pabrai)는 “생성AI는 비즈니스의 모든 측면을 재창조할 것이다. 새로운 위험, 새로운 과제, 놀라운 기회를 가져올 것이다.”라며 “우리의 AI 위험 평가는 위험 상태에 대한 실행 가능한 통찰력과 함께 NIST 및 ISO 표준을 통합한다."라고 말했다.

관련기사

저작권자 © 지티티코리아 무단전재 및 재배포 금지