AI의 상용화 확산과 함께 기업은 더욱 복잡하고 정교한 워크플로를 운영하게 되었으며, 다양한 언어 모델과 데이터 파이프라인을 효율적으로 연결하는 자동화 기술의 필요성이 부상하고 있다. 특히 비용 절감과 성능 최적화를 동시에 달성하기 위한 AI 모델 선택 자동화와 인프라 경량화는 산업 전반에서 중요한 과제로 떠오르고 있다.

데이터 및 AI 팀을 위한 에이전트 기반 운영 체제 저브(Zerve, CEO 필리 헤이즈)가 지능형 모델 라우팅 시스템 아르시 컨덕터(Arcee Conductor) 개발사 아르시 AI(Arcee AI, CEO 마크 맥웨이드)와 파트너십을 맺고 양사 기술을 통합 한다고 밝혔다. 

이번 협업으로, 저브는 AI 워크플로 내 모델 자동화 기능을 확장하며, 사용자의 개발 생산성과 효율성을 동시에 높이겠다는 전략이다.

AI 모델 선택 자동화로 성능과 비용 동시 개선

이번 통합의 핵심은 아르시 컨덕터가 제공하는 지능형 모델 선택 및 라우팅 기능이다. 이 기능은 입력 데이터의 복잡도, 도메인 적합성, 비용 등 다양한 변수에 따라 소규모 언어 모델(SLM)과 대규모 언어 모델(LLM)을 자동으로 선택한다. 사용자는 기존 워크플로 안에서 오픈AI 호환 API를 그대로 사용하면서도 인프라 오버헤드 없이 최적의 모델을 호출할 수 있게 된다.

특히 아르시 컨덕터는 저브의 에이전트 기반 동적 워크플로 제어 기능과 결합되어, 모델 선택뿐 아니라 전체 AI 처리 흐름의 자동화 수준을 한층 강화한다. 이를 통해 모델의 정확도, 실행 속도, 리소스 활용 측면에서 종합적인 성능 개선을 실현할 수 있다.

시각적 통합·플러그 앤 플레이 호환성으로 실전 도입 가속

저브 플랫폼은 실시간 협업과 시각적 워크플로 디자인 도구, 서버리스 AI 배포 환경을 통해 데이터 과학 및 AI 팀의 작업을 단순화해왔다. 이번 아르시 컨덕터 통합으로 사용자는 단일 개발 환경 내에서 저브의 기능과 아르시의 모델 라우팅 기술을 동시에 활용할 수 있다.

통합된 시스템은 오픈AI, 앤트로픽, 딥시크 등 주요 LLM 공급자의 API뿐 아니라 아르스가 제공하는 독점 SLM도 병용할 수 있어, 비용 대비 최적 성능을 고려한 모델 활용이 가능하다. 플랫폼은 플러그 앤 플레이 방식으로 기존 환경과의 호환성도 보장하며, 추가적인 설정 없이 통합 기능을 즉시 사용할 수 있다.

저브와 아르시 AI의 협업은 AI 워크플로 자동화의 수준을 한 단계 끌어올리는 통합 기술의 대표 사례로, 개발자와 데이터 과학자에게 더 많은 선택권과 효율성을 제공한다. 복잡해지는 AI 환경 속에서, 이와 같은 자동화 기반 기술 연계는 향후 엔터프라이즈 AI 운영의 방향성을 결정짓는 핵심 요소가 될 전망이다.

저브의 CEO 필리 헤이즈(Phily Hayes)는 “이 통합은 AI 워크플로를 구축하고 실행하는 최고의 장소로서 저브의 입지를 강화한다.”라며, “아르시 컨덕터를 통합함으로써 우리는 사용자가 우리의 플랫폼에서 직접 확장 가능하고 비용 효율적인 AI 시스템을 더 쉽게 만들 수 있도록 돕고 있다.”라고 말했다.

아르시 AI의 CEO인 마크 맥퀘이드(Mark McQuade)는 “저브와의 파트너십을 통해 우리의 지능형 모델 라우팅 기능을 더 많은 사용자에게 제공할 수 있게 되었다.”라며, “아르시 컨덕터를 저브 플랫폼에 통합함으로써 우리는 팀이 AI 워크플로를 최적화하고 더 낮은 비용으로 더 나은 성능을 달성할 수 있도록 돕고 있다.”라고 말했다.

관련기사

저작권자 © 지티티코리아 무단전재 및 재배포 금지