AI 확산으로 기업 인프라의 연산 수요는 폭발적으로 증가하고 있으며, GPU·NPU 등 AI 가속기 기반 워크로드가 프로덕션 환경에서 빠르게 늘고 있다. 그러나 다양한 벤더의 가속기 드라이버를 설치·업데이트하는 과정은 운영체제와의 호환성 검증, 예기치 않은 다운타임, 복잡한 유지관리 절차 등으로 기업 IT 팀의 부담을 키워왔다. 실제로 AI 모델을 운영 환경에 올리는 과정에서 드라이버 충돌이나 버전 불일치 문제는 장시간의 트러블슈팅을 야기하고, 이는 개발 효율과 수익성에도 직접적인 영향을 미친다. AI/ML 라이프사이클이 빨라지는 상황에서 안정성과 일관성을 갖춘 운영체제 기반의 가속기 지원 체계는 기업 경쟁력의 핵심 요소가 되고 있다.
글로벌 오픈소스 솔루션 기업 레드햇(Red Hat, CEO 미기재)은 레드햇 엔터프라이즈 리눅스(Red Hat Enterprise Linux, 이하 RHEL)가 AMD, 인텔(Intel), 엔비디아(NVIDIA)의 AI 가속기 소프트웨어에 대한 공식 OS 배포자 인증을 획득했다고 발표했다.
RHEL은 확장 리포지토리를 통해 각 벤더가 검증한 최신 드라이버와 사용자 공간 구성 요소를 직접 제공함으로써, AI 모델 배포와 하드웨어 활용을 위한 설치·업데이트 절차를 간소화한다. 이를 통해 기업은 AI 인프라 구동의 병목을 크게 줄이고 AI/ML 워크로드를 보다 신속하게 프로덕션 환경에 운영할 수 있게 된다.
RHEL 기반 통합 리포지토리로 드라이버 접근성 강화
레드햇은 RHEL 확장 리포지토리(Red Hat Enterprise Linux Extensions Repository), 서플리멘터리 리포지토리(Supplementary Repository), 베이스OS(BaseOS)를 통해 주요 AI 가속기 드라이버를 직접 제공한다.
기업 고객은 레드햇이 인증한 최신 드라이버를 신뢰하고 사용할 수 있으며, 복잡한 수동 다운로드나 별도 저장소 연동 과정 없이 배포·업데이트를 수행할 수 있다. 이는 운영 환경의 안정성 확보와 드라이버 관리 비용 절감에 실질적인 효과를 제공한다.
AMD·인텔·엔비디아 주요 구성 요소 패키지화
이번에 RHEL에서 제공되는 구성 요소는 AMD GPU 커널 모드(kernel mode) 드라이버와 ROCm, 인텔 NPU 커널 모드 드라이버, 엔비디아 GPU OpenRM 커널 모드 드라이버, 그리고 엔비디아 쿠다(CUDA) 툴킷이다.
AMD는 ROCm 및 Instinct GPU·EPYC 기반 x86 AI 환경을, 인텔은 NPU 및 Core Ultra 기반 온디바이스·에지 AI 가속을, 엔비디아는 OpenRM과 CUDA 기반 GPU 생태계를 RHEL 상에서 검증된 방식으로 통합 운영할 수 있게 된다.
이는 RHEL이 단순한 서버 OS가 아니라, AI 가속기·라이브러리·컴파일러·런타임 패키지를 단일 채널로 공급하는 ‘AI 인프라 기반 OS’ 역할을 수행함을 의미한다.
생산 환경에서의 안정성·일관성 확보
기업이 AI 가속기 드라이버를 직접 설치할 경우, 커널 버전 불일치나 의존성 오류는 예기치 않은 다운타임을 초래할 수 있다. 레드햇은 이를 제거하기 위해 RHEL과의 상호 운용성을 벤더와 공동 검증해 제공한다. RHEL은 이미 수백 개 클라우드, 수천 개의 하드웨어·소프트웨어 벤더 인증을 확보한 상태로, 이 체계가 AI 가속기 영역까지 확장되면서 운영 안정성은 더욱 강화된다.
오픈 하이브리드 클라우드 기반의 확장성
RHEL은 레드햇의 오픈 하이브리드 클라우드 전략의 핵심 기반으로, 온프렘, 하이브리드, 멀티클라우드 전반에서 동일한 AI 개발·운영 환경을 제공한다. AI 모델이 GPU 클러스터, 엣지(Edge) 디바이스, 클라우드 VM 등 다양한 곳에서 실행되는 상황에서 RHEL의 통합된 드라이버 제공 방식은 운영 표준화를 실현한다. 이는 모델 배포 속도를 높이고, 실험→배포 사이클의 복잡성을 줄여 AI 운영 효율을 높인다.
레드햇은 이번 AI 가속기 지원 강화를 계기로 AMD, 인텔, 엔비디아와의 협력을 확대해 RHEL을 ‘AI 프로덕션 운영체제’로 더욱 고도화할 계획이다. 거너 헬렉슨 레드햇 엔터프라이즈 리눅스 부문 총괄은 “RHEL은 세계 수천 개 기업의 기반 인프라로 자리 잡고 있으며, 검증된 AI 가속기를 손쉽게 활용하도록 지원함으로써 고객의 혁신 속도를 높이겠다.”라고 밝혔다.
AMD의 댄 맥나마라는 “기업은 성능과 엔터프라이즈 안정성을 갖춘 플랫폼을 필요로 하며, RHEL은 검증된 x86 기반 AI 환경을 제공한다.”라고 말했다.
인텔의 마이클 매시는 “인텔 AI 가속 기능을 RHEL에서 더욱 간소하게 활용할 수 있게 되어 기업의 AI 도입 속도를 가속화하게 될 것”이라고 강조했다.

관련기사
- 노코드 기계학습 개발도구 ‘탱고’...데이터 전문지식 없이도 AI 개발
- AI가 이끄는 메모리 반등...HBM4·차세대 DRAM·3D NAND가 2026 성장 견인
- IBM, AI 가속기 ‘스파이어 엑셀러레이터’ 출시
- 딥엑스, 차세대 임베디드 AI 기술 공개...유럽 산업용 AI 시장 공략 가속
- 인텔, 차세대 AI 추론용 GPU ‘크레센트 아일랜드’ 공개...데이터센터 효율성·확장성 강화
- 2나노 시대 여는 인텔 18A...팬서 레이크로 AI 연산 재정의
- 인텔 가우디3 통합 AI 서버...‘델 파워엣지 XE7740’
- 레드햇-메타, 라마 스택·vLLM 중심 생성AI 통합 오픈소스 협력 강화
- 레드햇-구글클라우드, 기업용 AI 추론 성능 향상 및 에이전틱 AI 기술 협력 확대
- ‘AI 가속기·양자 보안’ 통합한 ‘IBM 리눅스원 5’, 차세대 인프라 전환 가속
- AI 모델 최적화 범용 추론 플랫폼 확대...하이브리드 클라우드 전반에 AI 도입 가속
- 에퀴닉스-그록, 저지연 LPU 기반 AI 추론 인프라 아태지역 확산 협력
- 레드햇, ‘프로젝트 허밍버드’ 공개...제로 CVE 컨테이너로 클라우드 네이티브 운영 안정성 강화
