AI 인프라와 확장 가능한 머신 러닝 분야에서는 대규모 언어 모델의 긴 맥락 처리 능력과 성능을 높이기 위해 막대한 연산 자원과 전문화된 인프라가 필요하다. 기존 CUDA 중심 학습 환경은 특정 GPU 제조사에 종속된 생태계로 인해 학습 환경이 제한되고, 다양한 하드웨어에서의 유연한 확장이 어렵다는 성능 한계에 직면해 있다. 이에 다양한 하드웨어 아키텍처 기반의 학습 확장이 필요해지고 있다. 특히 생성AI의 고도화로 복잡한 모델 학습을 지원하는 GPU 성능, 운영 전문성, 효율적인 학습 환경 조성이 산업계와 학계 모두에서 중요한 과제로 떠오르고 있다.

AI 인프라 전문 기업 얼라인드(Aligned)가 AMD 및 서던캘리포니아대학교 정보과학연구소(이하 USC ISI)와 전략적 협력을 맺고 대규모 언어 모델 ‘메가로돈(MEGALODON)’ 개발과 학습을 가속화한다고 발표했다.

확장성·유연성 뛰어난 차세대 LLM 메가로돈 고도화 박차

이번 협력은 엔비디아외의 아키텍처에서 모델을 학습할 수 있는 효율적인 방법을 구축하기 위해 AMD 인스팅트(Instinct) MI300 GPU와 얼라인드의 운영 전문성을 결합하는 것을 목표로 한다.

메가로돈은 긴 문맥 처리 능력과 확장성을 개선하고 계산 효율성을 높이는 메가(MEGA) 아키텍처 기반의 USC ISI가 개발한 차세대 LLM이다. 메카 아키텍처로 이동 평균 기반 게이트 어텐션을 활용해 긴 문맥 기억력과 확장성을 개선하고 계산 복잡성을 선형 수준으로 줄인다.

실험에서 Llama 2와 비교해 동일 파라미터·토큰 조건에서 더 효율적이며, 학습 손실은 1.70으로 Llama 2‑7B(1.75)와 13B(1.67)의 중간 수준이다. 메가로돈은 긴 텍스트도 메모리 부담 없이 처리 가능하며 다양한 벤치마크에서 트렌스포머(Transformer)보다 우수한 성능을 보여준다

이번 협력은 기존 쿠다(CUDA) 중심의 한계를 넘어 대규모 언어 모델 학습의 성능을 확장하는 데 초점이 맞춰졌다. AMD 인스팅트 MI325X GPU와 ROCm 오픈 소프트웨어 생태계를 활용해 대규모 모델 훈련을 진행하며, 얼라인드는 USC ISI 연구자들에게 최신 GPU 기반 컴퓨팅 환경과 시스템 최적화를 지원하고 있다.

민관 협력과 첨단 인프라 제공

메가로돈 프로젝트는 DARPA, NSF, 록히드 마틴, 셰브론 등 다양한 기관과 기업의 협력 생태계 속에서 진행되고 있으며, 슈퍼컴퓨팅 클러스터와 고성능 스토리지, MOSIS 칩 프로토타이핑 연구소 접근 등 첨단 인프라가 제공된다. 향후 AMD MI355X GPU를 활용한 확장도 계획돼 있다.

ROCm 플랫폼 기반의 이번 협력은 AMD MI325X GPU에서 대규모 모델을 훈련하기 위한 최초의 주요 노력으로, 크로스 플랫폼 AI 활성화를 위한 사례가 될 전망이다.

USC 비터비 공과대학의 조나단 메이(Jonathan May) 부교수는 “연구자들이 모델 크기와 성능의 한계를 뛰어넘는 가운데, 메가로돈은 아키텍처와 확장성 측면에서 획기적인 진전을 보여준다. 이번 협력으로 필요한 연산 능력과 인프라 전문성을 확보하게 되었다.”라고 말했다.

얼라인드 CEO 크리스 엔시(Chris Ensey)는 “AMD와 USC ISI와 협력해 대규모 AI 학습 혁신을 지원하게 되어 기쁘다. 모든 하드웨어에서 강력한 AI를 구현하는 것이 우리의 사명이고 이번 협력이 그 비전을 보여준다.”라고 강조했다.

 

[알림] GTT KOREA GTT SHOW는 오는 8월 12일 오후 2시부터 3시까지 “피해 큰 BPF Door 같은 커널 기반 악성코드 막는 EDR과 마이크로세그멘테이션 실전 보안 전략”을 주제로 웨비나를 진행합니다. BPF Door 같은 커널 기반의 악성코드가 사용하는 공격 기법과 침투 단계별 위협의 소개, EDR과 마이크로세그멘테이션이 어떻게 상호보완적으로 작동하여 침입 초기 탐지부터 내부 확산 차단까지 이어지는 보안 체계의 구축 전략과 새로운 형태의 변종 공격에 유연하게 대응하는 제로 트러스트 기반 보안 전략을 실전 사례와 함께 제시합니다.

관련기사

저작권자 © 지티티코리아 무단전재 및 재배포 금지