인공지능(AI) 기술이 산업 전반에 확산되면서 전 세계 전력 수요 구조에도 변화가 나타나고 있다. 특히 대규모 AI 모델 학습은 막대한 연산 자원을 요구해 전력망 부담을 가중시키고 있으며, 데이터센터 운영 방식과 에너지 공급 전략에까지 영향을 미치고 있다. AI 서비스가 고도화될수록 학습·추론에 필요한 전력은 꾸준히 증가할 것으로 예상돼, 에너지 효율 개선과 전력 인프라 혁신이 기업과 정부 모두에 시급한 과제로 부상하고 있다.

EPRI(CEO 아르샤드 만수르)와 에폭 AI(Epoch AI)가 발표한 공동 보고서에 따르면, 선도적인 AI 모델 학습에 필요한 전력은 2030년까지 4기가와트(GW)를 넘어설 것으로 전망된다. 이는 수백만 가구에 전력을 공급할 수 있는 수준이다.

보고서는 AI 산업이 최근 컴퓨팅 효율성이 향상됐음에도 불구하고 모델 규모와 복잡성 확대를 통해 성능을 높이고 있어 전력 수요 증가세가 지속될 것으로 분석했다.

AI 산업 전력 수요, 데이터센터 수요 수준으로 확대

보고서에 따르면 대규모 AI 모델 훈련은 전통적으로 국지적이고 대규모 전력 공급을 필요로 하며, 지난 10년 동안 주요 모델 학습 전력 수요가 매년 두 배 이상 증가했다. 미국의 AI 관련 총 전력 용량은 현재 약 5GW로 추산되며, 2030년까지 50GW 이상으로 확대될 전망이다. 이는 전 세계 전체 데이터센터 전력 수요에 필적하는 규모이며, 데이터센터 전력 사용량에서 AI가 차지하는 비중은 빠르게 증가하고 있다.

전력 수요는 대규모 학습뿐 아니라 사용자 서비스용 AI 구축, 소규모 모델 학습, AI 연구 수행 등 다양한 영역에서 발생한다. 에폭 AI 하이메 세비야(Jaime Sevilla) 이사는 “첨단 AI 모델 학습에 필요한 에너지는 매년 두 배로 증가하며, 곧 최대 규모 원자력 발전소 출력에 맞먹을 것”이라고 밝혔다. 이어 “이번 보고서는 이러한 추세와 향후 방향성을 데이터 기반으로 분석했다”며 AI 관련 에너지 수요 조사를 지속하겠다고 말했다.

데이터센터 유연성·분산화로 전력망 안정성 확보

EPRI의 아르샤드 만수르(Arshad Mansoor) CEO는 “AI 애플리케이션은 이미 일상생활에 널리 보급됐으며, 미래 에너지 시스템에서 핵심적인 역할을 할 것”이라고 강조했다. 그는 증가하는 전력 수요를 충족하기 위해 데이터센터 개발업체와 전력 공급업체가 ‘균형을 맞추는 구축’ 방식을 도입하고 있다고 설명했다. 이는 데이터센터 설계의 유연성을 활용해 전력망 연결 속도를 높이고, 비용 절감과 시스템 신뢰성 향상까지 동시에 달성하는 접근법이다.

EPRI는 2024년 DCFlex 협업 프로젝트를 출범시켜 데이터센터 유연성 기술, 정책, 도구를 시연하고 있다. 지리적으로 분산된 교육 데이터센터를 포함한 유연성 확보는 데이터센터를 수동적인 전력 소비자에서 전력망 자산으로 전환해 안정성을 강화하고 비용을 절감하며 연결 속도를 개선할 수 있다. 해당 프로젝트에는 구글(Google), 메타(Meta), 엔비디아(NVIDIA) 등 창립 멤버를 비롯해 다양한 유틸리티 기업을 포함한 45개 이상 기업이 참여했다.

관련기사

저작권자 © 지티티코리아 무단전재 및 재배포 금지