Arm은 AI 혁신을 촉진하고 AI 기반 경험을 현실화하기 위해 다양한 새로운 전략적 파트너십에 참여하고 있으며, 그간의 AI 주요 업체들과의 파트너십을 통해 얻은 성과를 발표했다.
Arm은 이미 개발이 진행되고 있는 자체 기술 플랫폼 외에도 AMD, 인텔, 메타, 마이크로소프트, 엔비디아, 퀄컴 테크놀로지 등의 기업들과 협력해 보다 빠르고 안전한 사용자 경험을 위한 고급 AI 기능을 구현하는 데 중점을 둔 다양한 이니셔티브를 진행하고 있다.

Arm은 수년 동안 에지 환경에서 AI를 제공하는 데 앞장서 왔으며, 현재 스마트폰 분야에서 서드파티 AI 애플리케이션의 70%가 Arm CPU에서 실행되고 있다. 그러나 지속 가능한 방식으로 AI를 제공하고 데이터를 효율적으로 이동하는 방법을 모색함에 따라 업계는 에지에서 AI/ML 모델을 실행하도록 발전해야 한다. 한편, 개발자는 점점 더 제한된 컴퓨팅 리소스로 작업하고 있기 때문에 이는 어려운 과제다.
Arm은 엔비디아와 협력하여 Ethos-U NPU용 로우코드 오픈소스 AI 툴킷인 NVIDIA TAO를 적용하고 있으며, 이는 프로세서에 배포할 목적으로 성능에 최적화된 비전 AI 모델을 생성할 수 있도록 지원한다. 엔비디아 TAO는 대표적인 무료 오픈소스 AI/ML 프레임워크인 텐서플로우(TensorFlow)와 파이토치(PyTorch)에 기반하고 있다.
AI의 지속적인 성장에 있어 중요한 측면은 에지에서의 뉴럴 네트워크 배포를 발전시키는 것이다. Arm과 메타는 ExecuTorch를 통해 에지에 있는 Arm 기반 모바일 또는 임베디드 플랫폼에 파이토치를 제공하기 위해 노력하고 있다. 개발자는 ExecuTorch를 사용해 모바일이나 에지 디바이스 전반에서 고급 AI/ML 워크로드에 필요한 뉴럴 네트워크를 훨씬 더 쉽게 배포할 수 있다.
메타와의 협력은 Arm이 이미 AI/ML 가속기를 위한 공통 프레임워크를 제공하고 딥 뉴럴 네트워크에서 사용되는 광범위한 워크로드를 지원하는 TOSA(Tensor Operator Set Architecture)에 투자한 성과를 기반으로 한다.
상대적으로 저렴한 비용으로 AI를 확장하기 위해서는 데이터 형식의 광범위한 배포를 지원하는 것이 매우 중요하다. Arm은 AI 워크로드에 초점을 맞춘 다양한 새로운 소형 데이터 유형을 지원하기 위해 노력해왔다.
지난해, Arm, 인텔, 엔비디아는 공동 협력을 통해 새로운 8비트 부동소수점 사양인 ‘FP8’을 발표했다. 이후 이는 AMD, Arm, 구글, 인텔, 메타, 엔비디아로 참여 기업 그룹이 확대됐으며, 함께 공식 OCP 8비트 부동소수점 사양(OFP8)을 개발했다.
Arm은 최신 A-프로파일 아키텍처 업데이트에서 이 표준에 부합하는 OFP8을 추가하여 업계 전반의 뉴럴 네트워크에 OFP8이 빠르게 채택될 수 있도록 지원했다. OFP8은 소프트웨어 에코시스템에서 뉴럴 네트워크 모델을 쉽게 공유할 수 있도록 하는 8비트 데이터 형식으로, 수십억 개의 디바이스에서 AI 컴퓨팅 기능을 지속적으로 발전시킬 수 있도록 지원한다.
개방형 표준은 AI 에코시스템에서 혁신, 일관성 및 상호 운용성을 촉진하는 데 매우 중요하다. 이러한 표준에 대한 업계의 협력을 지속적으로 지원하기 위해 Arm은 최근 AMD, Arm, 인텔, 메타, 마이크로소프트, 엔비디아, 퀄컴 테크놀로지가 포함된 MX(Microscaling Formats) 얼라이언스에 가입했다. MX 얼라이언스는 최근 수년간의 설계 공간 탐색과 연구를 기반으로 마이크로스케일링으로 알려진 새로운 기술 사양을 공동 개발했으며, 이는 AI 애플리케이션의 소형 비트(8비트 및 8비트 미만) 훈련과 추론을 위한 세분화된 확장 방식이다. 이 사양은 이러한 소형 비트 데이터 형식을 표준화하여 업계 전반의 단편화를 제거하고 확장 가능한 AI를 구현한다.
MX 얼라이언스는 하이퍼스케일 데이터센터나 기타 컴퓨팅 인프라 업계 관계자들로 구성된 오픈 컴퓨트 프로젝트를 통해 라이선스 없는 개방형 MX 사양을 공개해 업계의 광범위한 채택을 장려했다. 이는 에코시스템 전반에서 확장 가능한 AI 솔루션에 대한 공평한 액세스를 제공해야 할 필요성을 인식한 결과다.
