좋든 싫든 간에 AI는 상상할 수 있는 거의 모든 분야에서 혼란을 일으키고 있다. 전 세계의 기업들은 업무 효율성을 높이기 위해 AI의 가능성을 받아들이고 있다. 챗GPT와 기타 생성형 AI 도구의 성공은 수익성, 효율성, 지속 가능성 목표를 달성하기 위해 거의 모든 산업의 관심을 끌었다.

우스만 슈자 / 블루빔 CEO
우스만 슈자 / 블루빔 CEO

이 기술에 자금이 쏟아지고 있다. 2023년에는 미국 스타트업에 대한 모든 미국 투자 달러의 25% 이상이 AI 관련 기업에 투자되었다. 게다가 AI 스타트업은 이제 2023년부터 2030년까지 연간 37.3%의 성장률을 기대하고 있다. 이러한 투자로 전 세계 기업들은 이전의 프로세스를 재검토하고 개선함으로써 전례 없는 효율성, 속도, 지속 가능성으로 운영할 수 있게 되었다.

우리는 AI를 사용하여 더 나은 미래를 만드는 방법을 개발하고 있지만, 동시에 기업들이 이러한 혁신적인 기술을 배포하는 방식에 있어서도 중요한 시점에 있다. 우리는 이러한 도구들이 신중하고 책임감 있게 사용되도록 해야 한다.

기술의 진화는 폭주하는 기차와 같다. 많은 면에서 AI 분야는 아직 청소년기에 있지만, 지난 1년 동안만 해도 AI와 기타 신생 기술의 발전은 급속도로 계속되었다. 전 세계적으로 공공 및 민간 부문과 학계는 AI의 약속, 위험, 적절한 사용에 대해 지속적인 논의를 하고 있다. 그 결과 2024년에는 AI 기술에 대한 정부 규제가 강화될 것으로 예상된다. 궁극적으로 정부가 그러한 매개변수가 무엇이 될 것인지에 대한 표준과 법률을 정하는 것은 정부의 몫이 될 것이다.

그러나 정부가 의심할 여지없이 중요한 규제 역할을 할 것이지만, AI 채택 속도는 기업 경영진이 AI에 대한 자체적인 윤리 지침을 만들 것을 요구할 것이다.

기업의 AI 윤리 규칙 배포 전략

구체적으로 기업은 다음과 같은 사항에 관심을 가져야 한다.

① 편향되지 않은 데이터로 작업한다

AI에는 알고리듬의 소스와 훈련에 사용되는 데이터에 대한 많은 질문이 따른다. 기업은 자사가 개발하거나 소싱하는 AI 제품이 공정하고 투명한 데이터 세트에서 데이터를 추출하도록 하는 데 앞장서야 한다 [1]. 프라이버시와 공정성 간의 관계는 복잡하며, 두 가지에 대한 특정 설계 선택과 가정은 시작 단계에서 고려되어야 하며 명시적으로 이루어져야 한다.

편향되지 않고 균형 잡힌 데이터를 사용하여 모든 AI 도구가 형성되도록 하는 것이 특히 중요할 것이다. 생성형 AI에 의해 구동되는 얼굴 인식 기술을 생각해 보라. AI 데이터 세트가 특정 인종을 선호하도록 훈련된 경우, 불공정한 편견과 결과가 거의 확실히 그 도구에 내재될 것이다. 이러한 유형의 위험하고 불공평한 결과를 피하는 AI 도구를 만들기 위해 노력하는 것은 기술의 지속적인 발전에 매우 중요할 것이다.

② 투명성을 가지고 배포한다

최근 바이든 대통령의 AI에 대한 행정 명령은 AI 환경에서 공정성, 투명성, 윤리적 관행을 촉진하는 연구 발전에 대한 새로운 의지를 강조한다. 기술 커뮤니티에서는 대부분의 생성형 AI 도구가 기반으로 하는 심층 신경망(DNN)과 대규모 언어 학습 모델(LLM)의 해석 가능성에 대한 우려가 있다. 경영진은 AI 적용 범위를 넓히기 전에 이러한 요소와 기타 요소에 대한 투명성을 점점 더 필요로 할 것이다. 기업은 투명성과 윤리 기준을 유지하기 위해 AI 알고리듬 정책을 채택하고 공개해야 한다.

③ 목적을 가지고 배포한다

저위험 애플리케이션에서 성숙한 기술의 신속한 채택을 장려하고 인센티브를 제공하는 환경을 조성하고, 성숙도가 낮은 애플리케이션에서는 더 큰 주의와 검토를 강조하고 우선시한다. 즉, 단순히 새로운 AI 개발이 있다고 해서 그것에 뛰어들지 말아야 한다. AI는 목적을 가지고 배포되어야 한다.

④ 직원 참여

AI와 같은 강력한 기술은 프라이버시, 고용 안정성 또는 기타 문제에 대한 우려 때문에 많은 사람들에게 위협적으로 보일 수 있다. 따라서 리더는 기술의 잠재력을 실현하기 위해 앞으로 다가올 위험, 도전, 기회에 대해 팀원들을 이해하고, 공감하며, 교육시켜야 한다.

AI를 통해 생산성 향상은 기하급수적일 수 있으며, 기술은 더욱 역동적으로 진화해야 할 것이라고 예측한다. 구체적으로 직원들은 AI에 더 쉽게 아웃소싱될 수 있는 반응적인 작업에 초점을 맞추기보다는 목표를 염두에 두고 성과를 측정하고 사전에 전략을 세우는 방법을 생각해 봐야 한다.

AI와 기타 디지털 도구의 발전은 의심할 여지 없이 원치 않는 변화를 가져올 것이지만, 윤리적인 기업 애플리케이션과 협력적인 정부 감독을 통해 이러한 도구와 앞으로 나올 도구들은 궁극적으로 수익을 증대시키고 우리 세상을 건설하고 관리하고 보호하는 사람들의 삶을 더 좋고 편하게 만들 것이다. 그러나 기업에서 AI 사용에 대한 윤리적 고려사항을 만들고 배포하는 것을 기다리는 것은 선택사항이 아니다. 발생할 수밖에 없는 문제를 해결하기 위해서는 지금이 이 분야에서 리더가 될 때이다. AI 전략과 도구의 감독과 실행이 가장 중요한 윤리와 일치하도록 보장할 책임이 있는 내부 위원회를 설립한다.

 

* 필자 우스만 슈자(Usman Shuja)는 블루빔(Bluebeam)의 CEO 이자 네메체크 그룹 건설 부문의 최고 ​​책임자이다. 현재 AI 고급 응용 프로그램의 상용화와 관련하여 DARPA의 고문으로 활동하고 있으며 하버드 대학의 케네디 행정대학원에서 혁신 정책과 AI의 윤리적 응용에 중점을 두고 MPA를 취득했다. 

관련기사

저작권자 © 지티티코리아 무단전재 및 재배포 금지