AI 거버넌스는 인류의 발전을 위해 AI의 책임 있는 사용을 촉진하기 위한 것이다. AI는 다양한 작업을 빠르고 효율적으로 완료하는 데 매우 유용하다. 하지만 불행히도 범죄 행위를 지원하거나 잘못된 정보를 생성하고 배포하는 데에도 사용될 수 있다. AI 거버넌스는 범죄적이고 비윤리적인 행위에 AI를 사용하는 것을 최소화하려는 노력이다.
GPT, 생성AI, 대형 언어 모델 등 AI의 최근 발전으로 인해 업계와 정부 지도자들 모두 AI를 사용할 때 윤리적 지침과 규정의 필요성을 인식하게 됐다.

AI 거버넌스 프로그램, 규정 및 지침의 개발은 AI 기술의 개발과 적용을 관리하기 위한 것이다. 예를 들어, 작가들은 AI로 대체되는 것에 대해 심각한 우려를 표명했으며, 미국 작가 조합은 임금 인상과 글쓰기 목적의 AI 사용에 대한 엄격한 제한을 요구하며 파업에 돌입하기도 했다.
AI를 통제하는 사람이 원하는 말을 하는 실제와 같은 이미지의 ‘딥페이크’는 일부 정치인과 정치 집단의 관심사가 됐다. AI가 생성한 악성코드에 기업의 컴퓨터 시스템이 감염되거나 딸이 흐느끼며 부모에게 납치됐다고 말하는 목소리를 재현해 몸값을 요구하기도 했다..
AI 거버넌스는 개인정보 보호, 내장된 편견, 명의 도용, 도난, 사기 등의 중요한 문제를 다룬다. 윤리가 약하거나 전혀 없는 개인으로부터 국민을 보호하기 위해 법과 규정이 필요한 것은 불행한 일이다. 기업들은 새로운 법률과 규정에 대한 최신 정보를 지속적으로 확인하고 AI 시스템의 생성과 배포가 규정을 준수하는지 확인해야 한다.
조직은 AI 거버넌스 모범 사례 시스템을 준수하고 인류의 발전을 위한 책임 있는 사용을 장려함으로써 AI의 사용으로 인해 제기되는 윤리적 문제를 해결해야 한다.
AI 규제를 위한 정부의 노력
미국에서는 언론의 자유가 거짓말을 할 수 있는 자유와 혼동될 수 있다. 상황은 혼란스럽고 잘못된 정보를 제한하는 법률을 제정하는 것도 어렵다. AI는 사기를 가중시키는 데 매우 유용한 도구가 될 수 있다.
개인과 혁신의 자유를 모두 보호하는 시스템을 개발하기 위해 정부는 특정 조치를 취해야 한다. 첫번째 단계는 AI의 비윤리적 사용으로 인해 발생하는 문제에 대한 이해를 발전시키는 것이다. 미국 상원의회는 AI에 대한 CEO들의 우려 사항을 논의하기 시작했다. 2023년 10월 30일 바이든 대통령은 AI에 대한 행정명령을 발표했다. “가장 강력한 AI 시스템 개발자들이 안전 테스트 결과 및 기타 중요한 정보를 미국 정부와 공유”하도록 요구하는 특례와 행정 명령은 ‘개발’ 표준과 지침을 다루고 있다. 하지만 현재 미국은 AI의 행동을 통제하거나 제한하는 법률을 제정하지 않았다.
유럽연합(EU)은 AI 중심 규제가 필요하다고 결정한 최초의 정부 기관 중 하나였다. 그들이 제안한 법안의 최종 법안인 EU AI법은 2023년 12월 8일 합의에 따라 여전히 개발 중이다. 사람들에게 위협이 되는 위험 AI 시스템을 결정하기로 했다(이러한 위험은 금지될 것이다).
허용될 수 없는 위험에는 다음과 같은 것들이 있다.
• 인간이나 특정한 취약 집단에 대한 인지적, 의도적, 행동적 조작이 포함된다. 어린이들이 위험한 행동을 하도록 장려하는 음성 인식 장난감이 그 예가 될 수 있다.
• 사회 점수, 사회 경제적 지위, 행동 또는 개인적 특성을 사용해 사람들을 분류하는 프로세스
• 실시간 및 원격 생체 인식 시스템의 사용
중국에는 표현의 자유가 없다. 따라서 AI 우선순위가 다르다. 2023년 8월 15일, 생성AI 서비스에 대한 임시행정조치가 시행됐다. 이러한 AI 제어 규정은 생성AI 서비스를 제공하는 기업들이 보안 평가와 알고리듬을 제출하도록 규정한다. 또한 제공자들이 생성된 콘텐츠의 정확성, 객관성, 진위성, 신뢰성을 향상하기 위해 노력하고 감독할 것을 요구한다.
일반적으로 AI 거버넌스와 관련된 국가들은 여전히 적절한 법률과 규정을 개발하고 있다.
비즈니스에 필요한 AI 거버넌스 7대 전략
비즈니스 관리자는 AI가 고객과 직원에게 미치는 영향을 고려하고 위험을 최소화하고 해를 끼치지 않도록 정책을 구현해야 한다. 기업은 AI 거버넌스 전략으로 인류의 발전을 위해 AI를 책임감 있게 사용하도록 지원할 수 있다.
주요한 AI 거버넌스 전략은 아래와 같다.
① AI 생성 자료 식별
많은 정부에서는 AI로 제작된 예술을 구별하는 방법으로 워터마크의 필수 사용을 논의하고 있다. 정직하고 책임감 있는 조직의 워터마크는 인간이 아닌 AI가 만든 예술 작품을 쉽게 전달할 수 있는 방법이다. 하지만 워터마크의 문제점은 아주 쉽게 제거할 수 있다는 것이다. 혼란과 잘못된 정보의 가능성을 높이기 위해 인간이 만든 예술 작품에 워터마크를 추가할 수 있다.
② 알고리듬 편견 처리
AI 알고리듬에 내장된 의도하지 않은(또는 비밀리에 심어진) 편견은 인종이나 성별과 같은 인구 통계를 사용해 조직의 채용 관행과 고객 서비스에 영향을 미칠 수 있다.
AI가 편향돼 있는지 확인하려면 테스트를 실행해 볼 수 있다. 엑셀은 이러한 테스트를 수행할 가상(What-If) 분석 도구(목표 탐색 및 시나리오 관리자)를 개발했다. 이러한 도구는 AI 시스템의 형평성과 공정성을 지원해 AI가 차별 없이 작동하도록 한다.
③고객 보안
기업이 수집하는 고객 정보에는 두 가지 기본 유형이 있다. 하나는 고객이 직접 제공하는 것으로 집 주소, 전화번호, 생년월일 등이다. 모든 사람들은 이 정보가 안전하고 보호돼야 한다는 데 동의한다. AI를 데이터 거버넌스와 결합해 데이터 개인정보 보호와 보안 법률을 지원할 수 있다. AI 지원 데이터 거버넌스 프로그램과 보안 규칙을 개발함으로써 기업은 데이터 도난과 악용 위험을 크게 줄일 수 있다.
또다른 형태의 고객 정보는 온라인 쇼핑 패턴부터 소셜 미디어 활동까지 다양한 데이터가 포함되며 다른 조직에서 구매한다. 이러한 유형의 정보(‘제3자 데이터’)는 구매를 유도할 목적으로 수집된다. 대부분의 사람들은 자신의 개인적 선호와 필요가 관찰되고 이용된다는 생각을 좋아하지 않는다. 정직하고 책임감 있는 기업이라면 인간이나 제3자 데이터를 조작하는 데 AI를 사용하는 것을 지원해서는 안 된다.

④ AI가 무해하다는 인식
AI를 사용할 때 ‘해를 끼치지 않는다’는 인식이 필요하다. 단기 이익만을 목표로, 속임수를 통해 이익을 취하는 기업들이 있다. 하지만 그런 기업들은 오래 지속될 수 없다.
정직하고 정확한 정보가 기업의 고객 기반을 손상시키는 경우는 거의 없지만, 사기나 절도는 일반적으로 향후 비즈니스를 잃게 만든다. 또한 정확한 정보는 더 큰 사회의 효율성과 흐름을 간소화하고, 결과적으로 인류의 발전을 촉진한다. 잘못된 정보의 도입은 혼란과 혼란을 초래할 수 있다. AI는 혼돈과 혼란을 조장하는 데 사용될 수도 있고, 원활한 의사소통을 목적으로 사용될 수도 있다.
⑤ 조직과 AI 윤리 강령 개발
AI 거버넌스 윤리 강령은 윤리적 행동에 대한 조직의 바람과 헌신을 명시해야 한다. 이 윤리 강령에는 “정확한 정보 제공을 위해 AI를 활용한다”, “AI를 이용해 잘못된 정보를 생성하거나 유포하지 않는다”는 약속이 포함돼야 한다.
AI 거버넌스 윤리 강령을 만들면 조직이 명확한 행동 표준을 확립할 수 있다. 기업 윤리 강령을 대중에게 공개하면 고객과 이해관계자의 신뢰를 구축하고, 법적 위험을 완화하며, 사회적 책임을 입증하는 데 도움이 될 수 있다.
⑥ 데이터 관리자와 AI 윤리 보고서
AI 거버넌스 프로그램에는 윤리적 문제를 지원하는 일련의 정책 및 절차가 포함돼야 한다. 이러한 정책 중 하나로, 정기적인 윤리 보고서를 요구해야 하며, 데이터 관리자는 이러한 책임을 맡기에 적합하다. 정기적인 감사는 또한 잠재적인 법적 문제를 식별하고 규정 준수를 장려할 수 있다.
⑦경영진 및 직원 교육
포괄적인 AI 거버넌스 프로그램을 만들려면 모든 직원과 경영진이 조직의 윤리 강령과 장기 목표를 이해해야 한다. 교육을 통해 모든 직원이 동일한 목표를 공유하고 노력하도록 해야 한다.
인간이 정확한 정보와 잘못된 정보를 분리하고 식별할 수 있는 방법을 찾는다면, AI는 범죄를 저지르고 잘못된 정보를 유포하는 것을 방지하는 알고리듬을 개발할 수 있을 것이다.
* 필자 키스 디 푸트(Keith D. Foote)는 인공지능, 기계학습, 빅데이터, GDPR 연구원, 작가 및 컨설턴트다. 그의 전문 분야는 데이터 과학에 기반한 물리와 비즈니스다.
(*이 칼럼은 GTT KOREA의 편집 방향과 다를 수 있습니다.)
관련기사
- AI 기업으로 진화하는 데이터 혁신 전략은?
- [기고] 전략적 의사결정의 다크호스 ‘다크 데이터’
- ‘AI 전문성 부족∙데이터의 복잡성∙윤리적 문제’가 AI 도입의 걸림돌
- 감쪽같은 AI 생성 이미지, 높아지는 딥페이크 위협
- [기고] 동전의 양면, AI 코딩
- 지능화되는 AI 기반 위협, “개인정보 보호·윤리성 유지·위협 대처법”
- AI 시대, 기업 데이터 경쟁력을 높이는 3대 전략
- [기고] 데이터 윤리가 왜 중요한가?
- 대형 멀티모달 모델 vs. 대형 언어 모델
- 생성AI를 현명하게 쓰는 방법
- 더 강력한 인간을 만드는 기술 ‘인간 증강’, 견고한 성장세
- 빠르고 안전한 생성AI 애플리케이션 지원 로우코드 프레임워크
- ‘72시간 이내’에 보안 규정 준수한 ‘제로 취약성’ 달성
- [기고] 데이터 가치 높이는 '데이터 관리' 5대 비법
- AI 윤리 문제·규제 복잡성 해결하는 '책임형 AI' 솔루션
- 개발 직군 지원자가 챗GPT 사용, 비개발 직군의 ‘최대 8배’
- 스냅태그, 랩가드 홈페이지 론칭
- AI 기술 발전에 따라 ‘AI 거버넌스’ 요구도 급증세
- AI로 다크웹 계정 유출 탐지
- 기업에 필요한 규정 준수 가이드
- GfK 코리아, 2024 데이터바우처 지원사업 수요기업 모집
- 솔트룩스-폴라리스오피스, 생성AI 사업 MOU 체결
- [기고] 흥미진진한 생성AI의 역사
- 생성AI 구현 경험 많은 기업일수록 ‘IT 역량에 대한 신뢰 낮다’
- 입법의 통찰력과 워크플로우 개선한 AI 도구
- 데이터 폭증으로 데이터 거버넌스 시장 ‘기하급수 성장’
- AI 음성기록 제품 ‘셀비 노트’ 광역의회 공급
- GPT-4로 보안 위협 "자율적으로 해결"
- 통찰력과 경쟁력의 기반 ‘빅데이터 및 비즈니스 분석’ 시장 증가세
- 데이터 거버넌스 가치 높이는 10가지 방법
- 지코어, AI 자동 음성인식 서비스 ‘100개 이상의 언어 지원’
- 딥페이크 걱정없는 ‘비가시성 워터마크’
- 오프라인으로 안전하게 ‘특허 초안 작성’ 자동화
- 온라인 콘텐츠 알기 쉽게 ‘핵심만 요약’
- 디지털 데이터 급증 ‘빅데이터 보안’ 필수
- [한선화의 소소(昭疏)한 과학] 현실이 된 ‘영화 속 과학 이야기’
- 책임 있는 AI 거버넌스 구축 전략
- 비가시성 워터마크 기술 적용 ‘생성 이미지 출처 확인’
- [기고] 개인정보 보호의 핵심 고려 사항
- 인간과 AI의 파트너십 ‘약점은 보완·강점은 증강’
- AI 윤리 규칙을 배포해야 할 때
- 은행의 신성장 동력 ‘제3자 데이터 활용’
- 경찰에 필요한 책임감 있는 AI 활용 6대 전략
- 'AI 리터러시' 가장 효과적인 AI 활용 전략
- 재교육 없이 전문 용어 즉시 이해하는 AI 음성 인식 시스템
- 자동 음성인식 시스템 ‘위스퍼’보다 50% 빠른 ‘위스퍼-메두사’
- 장애인과 고령자도 사용이 간편한 생체인증 결제 솔루션
