생성AI는 산업 전반에 걸쳐 비즈니스를 변화시킬 잠재력을 가지고 있다. 대부분의 비즈니스 및 기술 리더들은 생성AI의 이점이 위험을 훨씬 능가한다고 믿는다. 하지만 아룬 찬드라세카란(Arun Chandrasekaran) 가트너 애널리스트는 "책임감 있는 AI를 생성AI 중심에 둬야 한다. 디자인 사고와 생성AI 애플리케이션에 대한 인간 피드백 통합을 통해 인간과 기계 간의 조화로운 상호 작용을 촉진하라."라고 조언한다.
LLM 및 API 기술 기업 포럼 시스템즈(Forum Systems)가 생산성과 보안의 균형을 최적화하기 위해 미세 조정된 두 가지 언어 모델인 ‘미스트랄(Mistral) QS-센트리(Sentry)’와 ‘라마(Llama) 3 QS-센트리’를 공개했다.

이번에 발표된 모델은 오늘날 비즈니스 리더들 사이에서 시급한 문제인 생성AI 배포에서 생산성과 위험의 균형을 유지하는 프레임워크를 제시한다. 이 연구는 최근 발표된 두 편의 논문인 "LLM 선택을 위한 모델 위험과 인력 생산성 간 균형 프레임워크"와 "LLM 미세 조정을 통한 생산성-위험 프로필 개선"에서 자세히 다루고 있다.
미세 조정된 모델인 미스트랄 QS-센트리와 라마 3 QS-센트리는 Mistral-7B-Instruct-v0.2와 Meta-Llama-3-8B-Instruct를 기반으로 한다.
첫 번째 논문에서 포럼 시스템즈는 위험과 생산성의 균형을 유지하기 위한 프레임워크를 개발하고, 미세 조정 전 미스트랄과 라마 3의 생산성-위험 프로필을 평가했다. 프롬프트를 안전하거나 안전하지 않은 것으로 분류하라는 요청을 받았을 때, 미스트랄은 더 정확하여 높은 생산성과 일치했고, 라마 3는 더 제한적이어서 위험도가 낮았다.
두 번째 논문에서는 약 2만개의 프롬프트로 구성된 수작업으로 큐레이션된 데이터셋에 대해 미세 조정된 모델을 분석했다. 연구 결과, 미세 조정 후 두 모델의 생산성-위험 프로필이 의미 있게 개선될 수 있음을 보여주었다. 포럼 시스템즈는 AI 거버넌스 및 AI 정렬 분야의 연구자와 실무자 커뮤니티에 기여하기 위해 허깅 페이스에 미세 조정된 두 모델을 모두 공개했으며, 생산성 간 상충 관계를 분석하기 위한 프레임워크가 생성AI 제품을 배포하는 비즈니스 리더에게도 가치 있을 것이라고 믿는다.
포럼 시스템즈는의 소형 모델의 생산성-위험 프로필 최적화 작업은 미세 조정을 통해 엔터프라이즈급 책임감 있는 AI 배포가 가능하다.
마문 유누스(Mamoon Yunus) 포럼 시스템즈 CEO는 "LLM 보안에는 상충 관계가 있다. 더 제한적인 모델은 안전할 수 있지만 생산성을 저해할 수 있다. 기업이 모델의 생산성-위험 균형을 측정하지 않는다면, 최적의 상충 관계를 달성했는지 여부에 대해 모르는 상태"라며, "정밀도와 재현율과 같은 고전적인 머신러닝 메트릭은 생산성과 위험의 대리 변수로 사용될 수 있다. 광범위한 수동 다중 투표 레이블링 데이터에 대한 미세 조정을 통해, 우리의 LLM은 기본 모델에 비해 우수한 성능을 보여준다."고 덧붙였다.
