대규모 데이터 처리와 머신러닝(ML) 모델 학습이 복잡해지면서 GPU 가속 기반 연산 최적화가 개발 효율과 비용 절감을 좌우하는 핵심 요소가 되고 있다. 다양한 오픈소스 생태계와 연동 가능한 가속 라이브러리의 활용 범위가 넓어지며, 개발 현장에서는 모델 구축·튜닝·배포까지 이어지는 전 주기 자동화와 성능 극대화 요구가 함께 커지고 있다.

글로벌 AI 데이터 클라우드 기업 스노우플레이크(Snowflake)가 엔비디아(NVIDIA)와 협력해 스노우플레이크 AI 데이터 클라우드 플랫폼에서 오픈소스 라이브러리 ‘엔비디아 쿠다-X(NVIDIA CUDA-X)’를 직접 활용할 수 있게 됐다고 19일 밝혔다.

GPU 가속 알고리듬 즉시 활용

이번 통합은 스노우플레이크 ML에 엔비디아의 쿠다-X를 사전 탑재한 것으로, 이를 통해 고객은 cuML, cuDF 등 GPU 기반 알고리듬을 ML 워크플로에 즉시 적용할 수 있으며, 파이썬 생태계 라이브러리도 코드 변경 없이 동일하게 사용할 수 있다. 기업이 보유한 데이터세트의 용량 증가에 따라 GPU 가속이 필수 요소로 떠오르면서 전체 모델 개발 라이프사이클의 단순화·효율화가 가능해졌다.

엔비디아 벤치마크 결과에 따르면 A10 GPU는 랜덤 포레스트에서 CPU 대비 약 5배, HDBSCAN에서는 최대 200배 빠른 속도를 기록했다. 스노우플레이크 ML 사용자는 이러한 성능을 활용해 수백만 건의 리뷰 데이터 처리나 클러스터링 등 복잡한 연산을 기존 수 시간에서 수 분으로 단축할 수 있다. 유전체 분석과 같은 고차원 시퀀스 처리에서도 분석·분류 속도를 향상시켜 연구 효율을 높일 수 있다.

엔비디아 생태계 고객은 ‘스노우플레이크 컨테이너 런타임(Snowflake Container Runtime)’을 활용해 복잡한 연산 환경을 표준화된 GPU 기반으로 실행할 수 있다. 

양사는 이번 통합으로 AI 데이터 클라우드 내 생성AI 역량을 강화했으며, 스노우플레이크는 전통적인 ML 모델 개발부터 엔터프라이즈급 LLM 배포까지 고객이 고도화된 GPU 가속 도구를 활용할 수 있도록 협력 관계를 넓혀나갈 계획이다.

스노우플레이크 크리스티안 클레이너만(Christian Kleinerman)  제품 담당 수석부사장은 “이번 통합으로 데이터 사이언티스트가 인프라 관리에 쓰는 시간을 줄이고 비즈니스 인사이트 도출과 성과 창출에 집중할 수 있게 될 것”이라고 말했다.

관련기사

저작권자 © 지티티코리아 무단전재 및 재배포 금지