구글코리아가 지난 18일 법조계, 학계, IT업계 및 스타트업 등 분야별 전문가들로 구성된 제1기 ‘책임감있는AI포럼’ 3회차를 개최하고, 설명가능한 AI(explainable AI, XAI)를 통한 안전하고 유익한 AI 활용 방향을 논의했다고 22일 밝혔다.

발표중인 최재식 KAIST 김재철AI대학원 교수 겸 KAIST XAI 연구센터 센터장
발표중인 최재식 KAIST 김재철AI대학원 교수 겸 KAIST XAI 연구센터 센터장

설명가능한 AI는 사용자가 머신 러닝 알고리듬으로 생성된 결과와 출력을 이해하고, 그 과정을 신뢰할 수 있게 하는 일련의 프로세스와 방법으로, AI 모델과 이에 예상되는 영향 및 잠재적 편향을 설명하는 데 사용된다.

이번 3회차 포럼은 안전한 온라인 환경 조성을 위한 전문가들간 토론의 장인 ‘세이퍼 위드 구글(Safer with Google)’ 행사와 연계됐다. 이 자리에서는 ▲프라이버시 침해 ▲사이버 보안 위협 ▲편향 및 차별 등 AI 기술 고도화에 따른 잠재적 위협을 선제적으로 관리하고, ‘설명가능한 AI’를 통해 AI의 신뢰성과 안전성을 확보할 수 있는 방안이 중점적으로 다뤄졌다.

발표에 나선 설명가능한 AI 분야 권위자 및 ‘책임감있는AI포럼’ 의장인 최재식 KAIST 김재철AI대학원 교수 겸 KAIST XAI 연구센터 센터장은, XAI의 작동 원리와 의료, 금융, 제조, 정부 등 분야별 활용 사례를 소개하는 한편, 전 세계적으로 활발하게 논의되고 있는 AI 규제 동향과 윤리적 문제, 기대 효과 등 설명가능한 AI의 향후 전망 및 시사점을 전했다.

최 교수는 “XAI는 AI가 의사결정을 내리는 근거와 알고리듬을 검증하고 이를 사람이 이해할 수 있게 설명해 AI 기술의 투명성과 신뢰성을 한층 개선할 것”이라며, “전 세계적으로 AI 안전성 확보를 위해 주력하고 있는 가운데, 앞으로도 ‘책임감있는AI포럼’에서 AI의 발전을 위한 의미있는 논의를 이어나갈 수 있기를 바란다.”라고 밝혔다.

한편, ‘알파고’ 등 AI 모델을 만들어온 구글 딥마인드도 언어 해석 도구(LIT, Language Interpretability Tool) 등 책임감 있는 AI 활용을 위한 툴킷과 향후 전망을 발표했다.

발표중인 루도빅 페란 구글 딥마인드 프로덕트 매니저
발표중인 루도빅 페란 구글 딥마인드 프로덕트 매니저

루도빅 페란(Ludovic Peran) 구글 딥마인드 프로덕트 매니저는 “구글은 더 많은 개발자들이 책임감 있는 생성AI의 모범 사례를 구현할 수 있도록 ‘책임감 있는 생성AI 툴킷’을 개발했다.”라며, “개발자들은 책임감 있는 생성AI 툴킷을 활용해 표준화된 정책 준수, 다양한 문화와 의견을 존중하는 콘텐츠 제작, 유해 콘텐츠의 적절한 감지와 제어, 정교한 성능 평가 및 리스크 측정, 투명한 피드백 등을 할 수 있게 됐다.”고 밝혔다.

한편 포럼 멤버로 참석한 전문가 17명이 참석한 토론회에서는 설명가능한 AI의 적용과 도전 과제, 발전 방향성의 큰 틀에서 ▲설명가능성과 AI 기술 혁신의 관계 ▲XAI가 가져올 윤리적·사회적 영향력 ▲법제도 및 정책 영역 내 설명가능한 AI의 적용 방안 ▲XAI 강화와 AI 기술 혁신의 동시 달성 방향 등을 논의했다.

신경자 구글 아태지역 플랫폼&디바이스 마케팅 및 구글코리아 마케팅 총괄은 “생성AI의 등장으로 더욱 중요해진 XAI는 책임감 있는 AI 기술의 개발과 혁신에서 주목받고 있는 주제 중 하나”라며, “이번 포럼을 계기로 앞으로도 AI의 신뢰성과 안전성을 확보하는 동시에 혁신을 이어가기 위한 한층 구체적이고 심도 있는 논의가 지속되기를 기대한다.”라고 말했다.

관련기사

저작권자 © 지티티코리아 무단전재 및 재배포 금지