HPE가 생성AI를 위한 슈퍼컴퓨팅 솔루션을 발표했다. 이 솔루션은 대기업이나 연구기관, 정부 기관을 대상으로 한 생성AI에 최적화됐으며, 이를 통해 프라이빗 데이터 세트를 활용해 AI 모델의 훈련과 조정을 효율적으로 가속화할 수 있다.

HPE의 슈퍼컴퓨팅 솔루션은 소프트웨어 제품군을 통해 고객이 AI 모델을 훈련하고 조정하며 AI 애플리케이션을 개발하는 데 도움이 되는 기능을 제공하며, 수냉식 슈퍼컴퓨터, 가속 연산, 네트워킹, 스토리지, 서비스를 포함한 종합적인 지원을 제공한다.

이 솔루션의 핵심 구성요소는 AI 애플리케이션을 개발하고, 사전 구성된 모델을 맞춤화하며, 코드를 개발하고 수정하는 데 필요한 소프트웨어 도구다. 이 소프트웨어는 HPE 크레이 슈퍼컴퓨팅 기술을 기반으로 하고 있으며, 엔비디아 그레이스 호퍼 GH200 슈퍼칩(NVIDIA Grace Hopper GH200 Superchips)으로 구동된다.

이런 기술이 적용된 솔루션을 바탕으로 LLM이나 DLRM(Deep Learning Recommendation Model) 훈련과 같이 거대한 AI 워크로드에 필요한 규모와 성능을 구축할 수 있다. 또한 이 시스템에 포함된 HPE MLDE(Machine Learning Development Environment)를 사용함으로써 700억개 매개 변수를 가진 오픈소스 LLM인 라마(Llama) 2 모델을 3분 이내에 미세 조정할 수 있다.

이 솔루션은 목적에 맞게 구축된 통합형 AI 네이티브 제품으로 AI/ML 가속을 위해 HPE 머신 러닝 개발 환경(HPE Machine Learning Development Environment),  엔비디아 AI 엔터프라이즈(NVIDIA AI Enterprise), HPE 크레이 프로그래밍 환경(HPE Cray Programming Environment) 세트 등 3개의 소프트웨어 툴을 제공한다.

이외에도 엑사스케일 수준의 시스템인 HPE 크레이 EX2500(HPE Cray EX2500)을 기반으로 엔비디아 GH200 그레이스 호퍼 슈퍼칩을 탑재해 단일 AI 워크로드에 노드 전체 용량을 배치할 수 있으며, 최대 수천 개의 GPU까지 확장할 수 있다.

이 솔루션에 포함된 HPE 슬링샷 인터커넥트(HPE Slingshot Interconnect)는 엑사스케일 수준의 워크로드를 지원하도록 설계된 개방형 이더넷 기반 고성능 네트워크다. HPE 크레이 기술을 기반으로 한 이 인터커넥트는 매우 빠른 속도의 네트워킹을 가능하게 해 전체 시스템의 성능을 극대화한다.

특히 간편하게 AI를 도입할 수 있도록 설정, 설치에서 라이프사이클 전반을 지원하는  ‘HPE 컴플리트 케어 서비스(HPE Complete Care Services)’는 글로벌 전문가의 도움도 받을 수 있다.

저스틴 호타드(Justin Hotard) HPE 수석 부사장 겸 HPC·AI & Labs 총괄은 “생성형 AI를 활용하기 위해서 기업과 기관들은 지속가능한 솔루션을 사용하고, 슈퍼컴퓨터에 최적화된 성능과 규모를 기반으로 AI 모델 훈련을 지원해야 한다. HPE는 엔비디아와의 협력을 확대해 고객이 AI 모델 훈련과 성과 달성을 더욱 가속화할 수 있도록 지원하는 턴키(turnkey) AI 네이티브 솔루션을 제공하게 돼 기쁘다”고 밝혔다.

관련기사

저작권자 © 지티티코리아 무단전재 및 재배포 금지