AI 서비스의 확산은 추론 단계에서 막대한 인프라 수요를 발생시키고 있다. 특히 대규모 언어모델(LLM)과 생성AI 서비스가 보편화되면서 글로벌 데이터센터의 전력 소비와 비용은 가파르게 상승했다. 기존 퍼블릭 클라우드는 막대한 초기 투자비와 높은 에너지 소모로 인해 확장성에 한계가 지적되고 있다. 이 같은 환경에서 새로운 형태의 분산형 AI 인프라가 주목받고 있다.
에이아이브(AIEEV, 대표 박세진)는 2025년 9월 30일, 전 세계 유휴 GPU를 연결해 데이터센터 의존 없이 대규모 AI 추론을 수행할 수 있는 분산형 클라우드 플랫폼 ‘에어클라우드(Air Cloud)’를 정식 출시했다고 밝혔다.
에어클라우드는 학습이 아닌 추론 단계에 초점을 맞춰, 소비자와 기업이 보유한 GPU를 하나의 클라우드로 통합하는 구조를 통해 저비용·고성능 AI 추론 환경을 제공한다.
데이터센터 의존 탈피와 환경적 효과
AI 산업 성장으로 인해 글로벌 데이터센터 전력 사용량은 급증하고 있다. 고성능 GPU 서버는 막대한 전력을 필요로 하며, 이로 인한 온실가스 배출과 운영 비용은 기업의 부담으로 직결된다. 에이아이브는 이러한 문제를 해결하기 위해 전 세계에 분산된 GPU와 NPU 자원을 하나의 네트워크로 연결해 데이터센터 없는 친환경적 인프라를 구현한다는 비전을 세웠다.
에어클라우드는 특히 ‘엣지(Edge)’ 수준에서 유휴 GPU 자원을 확보한다. 가정용 PC, 게이밍 디바이스, 그리고 디노티시아의 개인형 LLM 디바이스 ‘니모스(Mnemos)’ 등 다양한 리소스를 연결함으로써, 데이터센터 의존도를 줄이고 지속 가능한 AI 인프라를 구축하는 것을 목표로 한다.
기능 검증과 비용 절감 성과
에이아이브는 지난 9개월간 20여 개 AI 기업과 베타 검증을 진행했다. 이 과정에서 실행 지연 최소화, 워크로드 처리 효율 개선, 비용 효율화 등의 주요 기능을 강화했다. 특히 오토스케일링과 스케줄링 시스템을 도입해 불필요한 GPU 사용을 최소화했으며, 이를 통해 GPU 인스턴스 비용을 최대 40%까지 절감할 수 있다는 성과를 확보했다.
또한 카드·계좌이체·해외 결제를 모두 지원하며, 장기 사용 기업을 위한 세이빙 플랜을 제공해 결제 안정성을 높였다. 보안 측면에서도 크라우드소싱 자원에 더해 자체 보안 노드를 운영해 안정성을 강화했다.
참여형 생태계 구축
에이아이브는 기업뿐 아니라 개인도 참여할 수 있는 생태계를 마련했다. 현재 국내 다수의 PC방 운영 기업과 협력해 유휴 GPU 자원을 에어클라우드에 통합하고 있으며, 개인 사용자는 자신의 PC나 디바이스를 연결해 수익을 얻을 수 있다. 이를 통해 기업은 저비용으로 AI 서비스를 운영하고 개인은 글로벌 인프라의 일부로 참여하면서 보상을 받는 구조가 형성된다.
현재 서비스는 관리형 분산노드 ‘에어클라우드+(Air Cloud+)’를 기반으로 운영된다. 에이아이브는 2026년까지 전 세계 10만 개 이상의 Consumer GPU 노드를 확보해, 가장 저비용이면서도 대규모로 확장 가능한 AI 추론 플랫폼으로 자리매김한다는 목표를 세우고 있다.
에이아이브는 이미 국내외에서 기술력과 성장 잠재력을 인정받았다. 삼성전자 C-Lab 스타트업 육성 프로그램, 대구시 ABB 사업, SK텔레콤 AI 스타트업 엑셀러레이팅, 중소벤처기업부 TIPS 프로그램 등에 선정됐다. 또한 중소벤처기업부 DeepTech GMEP 사업을 통해 실리콘밸리의 Plug and Play에서 글로벌 기업들과 협력 논의를 이어가고 있다.
이번 정식 출시를 계기로 에이아이브는 글로벌 시장 진출에 박차를 가한다. 특히 오는 2026년 1월 미국 라스베이거스에서 열리는 세계 최대 IT 전시회 CES 2026에 참가해 에어클라우드의 상용 경험과 기술력을 글로벌 무대에서 선보일 예정이다.
정식 출시를 기념해 에이아이브는 무료 PoC(Proof of Concept) 프로그램과 최대 50% 할인 혜택을 제공하고 있으며, 고객은 공식 홈페이지를 통해 신청할 수 있다.
에이아이브 박세진 대표는 “AI 인프라는 단순히 속도와 비용만이 아니라 안정성이 확보돼야 서비스 경쟁력이 생긴다”며 “에어클라우드는 분산 구조를 통해 장애에도 끊김 없는 환경을 제공하면서 고객이 합리적인 비용으로 대규모 AI 서비스를 운영할 수 있도록 지원할 것”이라고 말했다.

관련기사
- 구글 클라우드, AI 인프라와 레지던시 혁신 공개
- 레드햇-오라클, 하이브리드 클라우드 전환 가속하는 OCI 통합 지원 확대
- 구글 클라우드, AI 인프라부터 에이전트까지 전방위 AI 기술 공개
- 온프레미스 스토리지·분산형 클라우드 결합한 ‘데이터 보호 플랫폼’
- AI 데이터센터 구축 속도 30% 단축...모듈형 AI 인프라 플랫폼으로 전력·열병목 해소
- GPU 한계 넘어선 LPU 아키텍처, 실시간 AI 추론 5배 향상
- 버티브·엔비디아, 800VDC 전력 아키텍처 설계 완성...AI 팩토리용 메가와트급 인프라 구축
- AI 수요 폭증 속 데이터센터 공급 한계...에너지·냉각 기술이 성패 가른다
