이제 챗GPT는 세계에서 가장 유명인사라 해도 과언이 아니다. 오픈AI가 개발해 2022년 11월에 출시된 생성AI 도구는 출시 3개월만에 1억 명의 등록 사용자를 기록했다. 세계에서 가장 진보된 챗봇인 이 도구는 간단한 질문에 답하고, 노래를 쓰고, 보도 자료 초안을 작성하는 데 사용되며, 성공의 정도는 다양하다.

창의적인 영역에서 챗GPT는 인간의 정신과는 비교할 수 없지만 전체 워크플로우를 혁신할 수 있는 잠재력이 있는 놀라운 기능이다. 그러나 생성AI는 기회와 함께 위험도 있음을 이미 많이 보아왔다.

IDTechEx가 최근 발표한 "AI 칩 2023-2033" 보고서에 따르면 전 세계 AI 칩 시장이 2033년까지 2500억 달러를 넘어 성장할 것으로 전망되며, IT 및 통신, BFSI(은행, 금융 서비스 및 산업), 소비자 가전 산업이 큰 시장이 되고 있다. 이러한 성장은 머신러닝 모델의 복잡성과 기능이 증가함에 따라 가능하며 기업과 소비자 모두에게 상당한 기회를 제공한다.

그러나 AI 도구의 부적절한 사용은 앞서 언급한 그룹에 위협이 된다. 그럼에도 불구하고 고급 AI가 제공하는 기회는 위협보다 훨씬 크다고 IDTechEx는 분석했다.

소유권 및 책임은 누구에게

챗GPT, DALL-E2, 그리고 시리는 모두 생성AI 도구의 예이다. 이러한 시스템은 프롬프트에 따라 텍스트, 이미지 또는 기타 미디어를 생성할 수 있는 시스템으로, 생성된 데이터는 사용된 모델을 만들고 세분화하는 데 사용된 교육 데이터 세트를 기반으로 한다.

현재의 지적 재산권(IP) 법은 이러한 AI 도구가 생성할 수 있는 무형 자산의 법적 소유권을 설명하기에 특별히 적합하지 않다. 특허법은 일반적으로 발명가를 발명의 첫 번째 소유자로 간주한다. 인공지능의 경우, 누가 발명자인지 명확하지 않다. 인간은 (초기) 프롬프트를 생성하지만 출력을 생성하는 것은 AI 도구이다. AI는 또한 다른 AI 도구를 프롬프트하는 데 사용될 수 있으므로 AI는 프롬프트와 작성자 역할을 모두 수행할 수 있다.

그러나 AI 도구 IP 소유권을 부여하는 것은 현재와 마찬가지로 AI에게 법인에게도 동일한 지위를 부여해야 한다.

여기에 책임과 윤리의 문제가 있다. 만약 AI가 작품의 합법적인 소유자라면, AI 도구를 배치, 위탁 또는 사용한 인간은 책임에서 면제된다. 이는 인간 사용자가 이러한 AI 도구 사용의 윤리적 결과에 대해 어느 정도 책임을 져야 하기 때문에 비윤리적인 것으로 간주될 수 있다(특히 악성코드 스크립트 작성 지원과 같은 불법 AI 사용의 경우). 이를 해결하는 가능한 방법은 AI에게 어린이와 동일한 법적 지위를 부여하는 것이다. 여기서 AI는 여전히 소유권을 유지하면서도 인간 사용자는 어린이의 보호자와 유사하므로 일부 책임을 진다.

이것은 인공지능 도구의 행동에 대한 책임을 인간 사용자가 지도록 보장하지만, 인간의 프롬프트가 필요하지 않은 자율적 인공지능을 적절하게 처리하지는 못한다. 게다가, 기계에 법적 지위를 부여하는 주변의 입법자들로부터 약간의 불편함이 있을 수 있다.

고려해야 할 다른 당사자는 AI 도구의 개발자와 AI 도구를 훈련하는 데 사용되는 데이터 세트를 구성하는 데이터의 소유자이다(2023년 3월 이탈리아의 챗GPT 금지 이유의 핵심 구성 요소). 소유권에 대한 답은 AI 도구와 그 산출물이 증가함에 따라 더욱 시급히 모색될 것이다.

부정 사용

컴퓨터 스크립트 작성을 위한 적절한 구문을 지원하고 사기성 금융 거래를 탐지하는 것과 같이 AI가 선의로 사용될 수 있지만  사기에서 불법에 이르기까지 악용될 수도 있다. 생성AI 도구를 사용하여 스크립트 작성을 지원할 수 있다는 점을 감안할 때 어떤 유형의 스크립트를 작성하는 지는 도구에 특별히 중요하지 않다.

따라서 생성AI는 맬웨어(악성 소프트웨어) 작성을 지원하는 데 사용할 수 있다. 물론 사용된 AI 도구는 의도적으로 맬웨어를 생성하지는 않았지만 명목상 무관심한 시스템에 대한 이러한 잠재적 오용을 해결해야 한다.

생성AI는 광고 카피 및 마케팅 자료와 같은 특정 업무 기능을 효율화 하는 데 매우 효과적이다. 그럼에도 불구하고, 문제는 소유권과 책임에 관한 것이다. 마케팅에서 소비자(기업이 궁극적으로 여전히 모호하거나 명예를 훼손하는 언어에 대한 책임이 있음), 학술 기관(논문의 일부를 쓰기 위해 언어 도구를 사용하는 학생이 수여된 학위의 정당성에 의문을 제기하는 경우), 이러한 도구의 공정한 사용을 위해 규제 및 법적인 명확한 지침이 제공되어야 한다.

IDTechEx 관계자는 “궁극적으로 2001: 스페이스 오딧세이와 터미네이터와 같은 SF 작품에 나오는 AI가 제기하는 실존적 위협 유형들은 아직 먼 이야기다. 그러나 AI 기술이 인공 일반 지능으로 발전하더라도 AI가 산업을 더 나은 방향으로 변화시키도록 위험을 적절하게 완화하려면 명확한 관행과 행동 강령이 필요하다.”고 말했다.

관련기사

저작권자 © 지티티코리아 무단전재 및 재배포 금지