대규모 언어모델(LLM)의 상용화가 확산되며, 실시간 응답성과 낮은 전력 소비가 요구되는 디바이스 환경에서 AI 추론을 수행할 수 있는 에지 최적화 모델의 중요성이 급부상하고 있다. 특히 온디바이스 AI는 네트워크 지연 없는 추론, 오프라인 상태에서도의 사용 가능성, 데이터 주권 확보 측면에서 기업의 실질적인 요구에 부합하며 빠르게 도입되고 있다. 이러한 흐름 속에서 소형·고효율 AI 모델의 성능 향상은 곧 기업의 디지털 전환 경쟁력과 직결된다.
AI 모델 솔루션 기업 리퀴드 AI(Liquid AI)는 새로운 구조화된 적응형 연산자로 구성된 차세대 리퀴드 파운데이션 모델(LFM2)을 출시했다. 기존 트랜스포머나 비트랜스포머 기반의 자동회귀 모델과 달리, LFM2는 리소스가 제한된 환경에서도 빠른 추론과 효율적인 훈련을 실현하며, 높은 일반화 능력을 제공한다.

속도·효율성·정확도에서 획기적 성능 개선
LFM2는 CPU 기반 테스트에서 기존 트랜스포머 계열 모델인 큐원3(Qwen 3), 젬마(Gemma) 3n 매트포머(Matformer) 등을 포함한 경쟁 모델에 비해 200% 높은 처리량과 더 낮은 대기 시간을 기록했다. 뿐만 아니라 명령어 추종과 함수 호출 정확도에서도 각 크기 클래스에서 최고의 성능을 나타냈다. 이로 인해 LFM2는 에지와 로컬 기반 AI 활용에 이상적인 모델로 주목받고 있다.
LFM2는 새로운 훈련 인프라와 아키텍처를 기반으로 구축되었으며, 이전 버전 대비 훈련 효율성이 300% 향상됐다. 이는 범용 생성AI 시스템을 저비용으로 개발할 수 있는 경로를 제공하며, 에지에서 직접 동작하는 AI 서비스 도입에 실질적인 기술적 전환점을 마련한 것으로 평가된다.
이러한 기술적 혁신은 리퀴드 AI가 추구하는 ‘첫 원칙 기반 설계 철학’에 따라 이뤄졌으며, 모든 프로세서에서 온디바이스 배포가 가능하도록 설계되었다. 특히 휴대전화, 노트북, 로봇, 자동차, 위성 등 다양한 엔드포인트에서 밀리초 단위의 지연 시간을 보장하며 오프라인 환경에서도 복원력을 유지한다.
오픈소스로 공개...실사용 테스트 환경 제공
리퀴드 AI는 LFM2의 모델 소스를 완전 공개하며, 글로벌 AI 생태계에 새로운 구조를 소개했다. 모델의 웨이트는 허깅 페이스(Hugging Face)를 통해 다운로드 가능하며, 리퀴드 플레이그라운드(Liquid Playground)를 통해 실시간 테스트도 제공된다. 또한, 향후 자사 에지 AI 플랫폼 및 iOS 네이티브 앱에 LFM2가 통합될 예정이다.
이 같은 오픈소스 배포는 기술 투명성과 접근성을 높이고, 개발자와 기업이 직접 모델을 검증하고 실험할 수 있는 기회를 확대하는 효과를 제공한다.
리퀴드 AI는 이번 LFM2 출시를 통해 알리바바, 바이트댄스 등의 중국계 선도 기업들이 공개한 소규모 오픈소스 언어모델 대비 속도, 에너지 효율, 추론 성능 등 전 부문에서 우위를 입증했다고 밝혔다. 이는 미국 기업이 중국 기반 모델을 기술적으로 공개 평가에서 능가한 첫 사례로, 글로벌 소형 언어모델 경쟁 구도에 있어 의미 있는 전환점이 되었다.
에지 AI 확산과 시장 확대 가능성
온디바이스 LLM은 데이터 주권 보호, 비용 절감, 오프라인 활용 등에서 강점을 보이며, 민감 정보가 많은 산업에서 우선 도입되고 있다. 국방, 항공우주, 사이버보안 외에도 스마트 가전, 로봇 공학, 금융, 전자상거래, 교육 등 다양한 산업군이 도입을 서두르고 있으며, 소형 민간 기반 모델 시장은 2035년까지 1조 달러 규모로 성장할 것으로 전망된다.
리퀴드 AI는 이러한 수요에 대응해 포춘 500(Fortune 500) 기업들과 협업하고 있으며, 각종 디바이스를 로컬 AI 디바이스로 전환하는 엔터프라이즈급 배포 스택을 구축하고 있다. 이를 통해 기업은 클라우드 LLM 의존도를 줄이고, 빠르고 안전한 프라이빗 인텔리전스로 이전할 수 있다.
리퀴드 AI의 공동 창립자 겸 최고경영자인 라민 하사니(Ramin Hasani)는 “리퀴드는 품질, 지연 시간, 메모리 효율성을 고려한 최고의 기반 모델을 설계한다”며 “LFM2는 앞으로 몇 달 내 출시될 강력한 모델 시리즈의 시작이며, 에지 환경에서 생성AI와 에이전트 AI의 잠재력을 현실로 만들 것”이라고 밝혔다.
관련기사
- 구글 클라우드, AI 인프라와 레지던시 혁신 공개
- AI 추론 성능 10배 향상...기업 경쟁력 좌우할 차세대 클라우드 인프라
- ‘에지 AI SW’ 시장, 클라우드 의존 줄이고 실시간 데이터 처리 혁신하며 연평균 28.8% 급성장
- AI 추론 워크로드 최적화하는 지능형 데이터 인프라
- 엔비디아, 양자화·텐서RT 최적화로 ‘스테이블 디퓨전 3.5’ 성능 2배↑
- A10 네트웍스, AI 및 LLM 추론 최적화 고성능 보안 인프라 기술
- 슈퍼브에이아이, ‘AWS 생성AI 컴피턴시’ 획득
- AI 고성능·지속가능성 갖춘 ‘통합 냉각 솔루션’…데이터센터 에너지·운영 효율↑
- AI 고도화하는 맞춤형 풀스택 스토리지
- 고성능 GPU 인프라 결합으로 강화되는 멀티모달 추론 모델
- 생산성 분석·자동화 결합한 ‘AI 모델 구축 컨설팅 서비스’...기업 AI 모델 신뢰성·정확성 개선
- 기업 AI 도입 79%·AI 보안 전략 6%로 격차 심화...보안 현대화 시급
- 에너지 효율 100배 향상된 초저전력 범용 프로세서
- 생성AI 시대, IT 관리 효율화 위해 전략적 도입과 교육 필수
- AI 융합 생태계 확장하는 알리바바, 큐원 기반 실생활 적용 본격화
- 초고속 AI 추론 모델 '오픈AI gpt-oss-120B·20B' 전 세계 실시간 활용
- 1마이크로초 미만 초저지연 머신러닝 추론 가속기, 기업 운영 효율과 수익성 동시 확보
- 온라인 쇼핑, ‘밀리초 전쟁’ 끝...안정성과 공정성이 새 기준
- 에지 AI, 기기 스스로 판단하고 행동하는 ‘온디바이스 인텔리전스’ 가속
