알리바바 클라우드가 오픈소스 대규모 언어 모델(LLM) 제품군의 최신 세대 ‘큐원3(Qwen3)’를 공개했다고 7일 밝혔다. 

큐원3 시리즈는 6개의 일반 구조 모델(0.6B, 1.7B, 4B, 8B, 14B, 32B 파라미터)과 2개의 MoE(Mixture-of-Experts) 모델(3B 활성 30B, 22B 활성 235B)로 구성되며, 모바일 기기, 스마트 글래스, 자율주행차, 로보틱스 등 차세대 애플리케이션 개발에 활용할 수 있다. 

하이브리드 추론 모델

큐원3는 하이브리드 추론 모델로, 기존 LLM 기능과 고급 동적 추론을 결합해 수학, 코딩, 논리적 추론과 같은 복잡한 다단계 작업을 위한 사고 모드와 빠른 범용 응답을 위한 비사고 모드 간 원활하게 전환할 수 있다. 

또한, API를 통해 큐원3에 접근하는 개발자는 최대 3만 8천 개의 토큰까지 사고 지속 시간을 세밀하게 조정할 수 있어, 지능형 성능과 컴퓨팅 효율성 간 최적화된 균형을 유지할 수 있다. 특히 ‘큐원3-235B-A22B’ MoE 모델은 다른 최신 모델 대비 도입 비용을 낮춰 접근성을 높였다.

다국어 능력, 에이전트 기능, 추론 능력 및 인간친화성 향상

이전 모델 ‘큐원2.5’의 두 배 규모인 총 36조 개에 달하는 데이터 셋을 학습한 큐원3는 추론, 지시 수행, 도구 활용, 다국어 작업 등 여러 분야에서 성능이 향상됐다.

큐원3는 119개의 언어 및 방언을 지원하며 모델 컨텍스트 프로토콜(MCP) 지원 및 강력한 함수 호출(function-calling) 기능을 통해 복잡한 에이전트 기반 작업의 성능을 높였다. 또한, 수학, 코딩, 논리적 추론 벤치마크에서 이전 큐원 모델(사고 모드의 QwQ 및 비사고 모드의 큐원2.5) 능가하는 성능을 지원하며 글쓰기, 롤플레잉, 다중 턴 대화 등에서 자연스럽고 몰입감 있는 대화 경험을 제공한다.  

알리바바 클라우드가 오픈소스 LLM ‘큐원3’를 공개했다.
알리바바 클라우드가 오픈소스 LLM ‘큐원3’를 공개했다.

한편, 큐원3는 모델 아키텍처 개선, 학습 데이터 확충, 효과적인 학습 기법을 통해 수학적 추론, 코딩 역량, 도구 및 함수 호출 능력, 지시 최적화 LLM 평가 등 업계 벤치마크에서 높은 수준의 결과를 입증했다. 또한, 하이브리드 추론 모델 개발을 위해 긴 연쇄 사고(CoT) 초기학습(cold start), 추론 기반 강화 학습(RL), 사고 모드 융합, 일반 강화 학습을 포함하는 4단계 학습 과정을 구현했다.

큐원3 모델은 현재 허깅페이스, 깃허브, 모델스코프를 통해 무료로 다운로드할 수 있다. 알리바바의 AI 모델 개발 플랫폼 ‘모델 스튜디오(Model Studio)’를 통해 곧 API 접근이 가능해질 예정이다. 큐원3는 알리바바의 플래그십 AI 슈퍼 어시스턴트 애플리케이션 쿼크(Quark)를 구동한다. 

관련기사

저작권자 © 지티티코리아 무단전재 및 재배포 금지