클라우드 기업인 클라우드플레어(Cloudflare)가 마이크로소프트(Microsoft)와 협력을 통해 기업이 AI를 더 쉽게 실행할 수 있도록 지원한다고 밝혔다.

AI 추론 작업이 점점 더 분산되고 있는 가운데, 클라우드플레어는 이번 협력을 통해 기업들이 디바이스, 네트워크 에지, 클라우드 환경을 아우르는 컴퓨팅 환경 전반에 걸쳐 AI 모델을 원활하게 배포해 중앙 집중식, 혹은 분산 컴퓨팅 모델의 이점을 극대화할 수 있도록 지원한다.

또한 양사는 오닉스 런타임(ONNX Runtime)을 활용함으로써, 초대형 클라우드에서 초분산 네트워크 에지, 장치 자체에 이르기까지 세 단계 아키텍처 중 처리가 가장 적합한 곳에서 AI 모델을 실행해 특정 애플리케이션이나 서비스의 대역폭, 지연 시간, 커넥티비티, 처리, 배터리/에너지, 데이터 주권과 현지화 요구 사항을 가장 잘 해결할 수 있도록 보장한다는 계획이다.

AI 모델 학습을 위해서는 서로 근접해 있는 컴퓨팅과 스토리지 리소스가 요구된다. 따라서 중앙 집중식 클라우드 플랫폼은 모델 학습에 필요한 집중적인 계산을 위한 최적의 환경을 제공한다. 트레이닝은 계속 중앙 집중화되는 반면, 추론 작업은 더 분산된 위치, 특히 디바이스 자체와 에지 네트워크에서 수행된다.

예를 들어, 일부 추론 작업은 지연 시간을 최소화하기 위해 물리적 디바이스에서 실행되는 반면에 컴퓨팅, 스토리지, 배터리 전원과 같은 디바이스의 한계를 극복하기 위해 점점 더 많은 작업을 에지 네트워크에서 실행해야 한다. 엔드 유저나 디바이스와 지리적으로 가까운 에지 네트워크는 컴퓨팅 리소스, 속도, 데이터 프라이버시 간의 균형을 제공해 준다. 일부 애플리케이션은 최종 사용자에게 최상의 경험을 제공하기 위해 디바이스, 에지 네트워크, 클라우드 환경이 함께 작동해 컴퓨팅 연속체의 세 가지 단계를 통과해야 할 수도 있다.

클라우드플레어와 마이크로소프트는 기업이 워크로드에 가장 적합한 장소에서 AI를 손쉽게 실행할 수 있도록 협력할 계획이다. 이런 목표를 구현하기 위해 마이크로소프트의 오닉스 런타임은 장치(윈도우, 모바일 또는 브라우저 내), 분산 네트워크 에지(클라우드플레어), 애저의 중앙 집중식 클라우드 플랫폼 등 모든 환경에서 동일한 모델을 배포할 수 있는 표준화된 솔루션을 생성한다. 또한 클라우드플레어는 커넥티비티, 지연, 규정 준수 또는 기타 요건에 따라 다양한 환경에서 트래픽을 라우팅할 인프라를 제공하게 된다.

마이크로소프트의 AI 역량과 초대형 클라우드 인프라를 클라우드플레어의 초분산 에지 네트워크와 결합함으로써 AI의 전체 수명 주기에 걸쳐 혁신과 효율성을 향상할 수 있으며, 기업은 목표를 달성하기 위해 처리가 가장 적합한 곳에 AI 추론을 배포하도록 선택함으로써 중앙 집중식 컴퓨팅 모델과 분산 컴퓨팅 모델 모두의 이점을 극대화할 수 있다. 또한 세 위치 모두에서 모델을 실행하고 가용성, 사용 사례, 대기 시간 요구 사항에 맞춰 조정 또는 교체할 수 있다. 그리고 마이크로소프트 애저 머신러닝(Machine Learning)을 통해 워커스 AI(Workers AI)에서 쉽게 배포 가능한 모델과 ML 도구 기능을 활용할 수 있다.

매튜 프린스(Matthew Prince) 클라우드플레어 CEO 겸 공동 창업자는 “클라우드플레어와 마이크로소프트는 조직의 정확한 요구와 필요에 맞춰 AI 추론을 구현하기 위해 AI 트래픽과 작업이 이동할 경로를 구축하고자 한다"며, "속도나 정확성이 요구되는 상황, 에너지 혹은 연결 대역폭 문제를 해결해야 하는 상황뿐 아니라 지역 로컬라이제이션 요구 사항을 준수하고자 하는 기업들에게 AI 작업에 가장 적합한 위치를 찾을 수 있도록 지원할 계획”이라고 말했다.

관련기사

저작권자 © 지티티코리아 무단전재 및 재배포 금지