- 생성형 AI 수요에 따라 전력 소비 급증전력 공급업체 용량 확장 능력 넘어설 것

- 가트너, 향후 2년간 데이터센터 소비량 160% 증가해 데이터센터 40% 전력 부족 예상

- 2027AI 최적화 서버 운영에 필요한 데이터센터 전력 소모량 500 TWh 달할 것

- 가트너, 전력 부족과 치열한 경쟁으로 전기요금 인상, 지속가능성 달성 어려움 전망

 

[가트너] 2022-2027 AI 데이터센터의 전력 소비량 증가 예상치.jpg

가트너는 AI와 생성형 AI로 인해 전력 수요가 급증하고 있으며, 향후 2년간 데이터센터의 전력 소비량이 160%까지 증가할 것이라는 전망을 발표했다. 이로 인해 2027년까지 기존 AI 데이터센터의 40%에서 전력 가용성 문제가 발생할 것으로 예상했다.

 

가트너 VP 밥 존슨(Bob Johnson) 애널리스트는 생성형 AI를 구현하기 위한 신규 하이퍼스케일 데이터센터의 폭발적인 성장은 끝없는 전력 수요를 만들어내고 있다. 이는 전력 공급업체의 용량 확장 능력을 초과할 것이라고 밝히고, “이는 궁극적으로 에너지 가용성을 저해하고 전력 부족으로 이어질 위험이 있다. 2026년부터는 생성형 AI와 다른 용도를 위한 신규 데이터센터 구축에 악영향을 미칠 수 있다"고 덧붙였다.

 

가트너에 따르면, 2027년에 데이터센터가 AI 최적화 서버를 운영하기 위해 필요한 전력은 연간 500테라와트시(TWh)에 달할 것으로 예상된다. 이는 2023년 대비 2.6배 증가한 수치다.

 

존슨 VP 애널리스트는 생성형 AI 애플리케이션을 뒷받침하는 대규모언어모델(LLM)은 빠른 속도로 확장하고 있다. 현재 LLM 학습과 구현에 필요한 방대한 양의 데이터를 처리하기 위해 대규모 데이터센터의 설립이 추진되고 있다. 하지만 송전, 배전 등 신규 인프라를 갖추고 발전 용량을 확보하기 까지는 수년이 걸릴 수 있어 전력 부족 문제는 지속될 것이라고 내다봤다.

 

또한 머지않아 신규 데이터센터 설립과 생성형 AI의 성장은 이를 운영할 수 있는 전력 가용성에 따라 좌우될 것이다. 기업은 전력 부족이 자사 제품과 서비스에 미칠 수 있는 잠재적인 위험을 파악해야 한다고 조언했다.

 

가트너는 전력 부족 문제가 임박하면 전력 가격은 상승할 수밖에 없으며, LLM 운영 비용 또한 증가할 것으로 내다봤다. 그렇기 때문에, 기업은 전력 비용이 오를 것을 예측해 향후 계획을 점검하고, 합리적인 수준의 가격으로 데이터센터 서비스에 대한 장기 계약을 협상하는 한편, 신규 제품 및 서비스를 계획할 때 상당한 비용 증가를 예상해 전력을 덜 소모하는 대체 방식을 모색해야 한다고 권장했다.

 

존슨 VP 애널리스트는 많은 전력사용자들은 장기적인 전력 공급원을 확보하기 위해 주요 생산업체와 협력하고 있다. 전력 확보가 치열해지면서 데이터센터 운영에 필요한 전기요금은 크게 상승할 것이며, 이러한 비용은 AI 및 생성형 AI 제품 및 서비스 공급업체에도 전가될 것"이라고 설명했다.

 

더 많은 전력을 공급하기 위한 단기 해결책은 탄소 제로 지속가능성 목표에도 악영향을 미칠 전망이다. 급증하는 전력 수요에 대응하기 위해 공급업체는 가능한 모든 수단을 동원할 것이고, 이로 인해 폐쇄 예정이었던 화석 연료 발전소를 계속 가동할 수도 있다.

 

존슨 VP 애널리스트는 데이터센터의 전력 사용량이 증가하면 이산화탄소 배출량도 단기적으로 증가한다. 데이터센터 운영 기업과 고객은 이산화탄소 배출에 대한 엄격한 지속가능성 목표를 달성하기 더욱 어려워질 것이라고 밝혔다.

 

가트너는 풍력이나 태양광과 같은 재생 에너지원은 전력 생산이 불가능한 기간이 존재해 항시 전력이 필요한 데이터센터에는 적합하지 않다고 밝혔다. 현재로서는 수력, 화석 연료, 원자력 발전소만이 중단 없이 안정적으로 전력을 공급할 수 있다. 향후 나트륨 이온 배터리와 같은 향상된 배터리 저장 장치, 소형 원자로를 비롯한 청정에너지와 같은 신기술이 등장하면, 지속가능성 목표를 달성하는 데 도움이 될 전망이다.

 

가트너는 기업이 향후 몇 년 동안의 데이터센터 요구 사항과 전력 공급원을 고려하여 이산화탄소 배출과 관련된 지속가능성 목표를 재점검할 필요가 있으며, 생성형 AI 애플리케이션을 개발할 때는 최소한의 컴퓨팅 성능을 사용하는 데 초점을 맞추고, 엣지 컴퓨팅 및 소규모언어모델(SLM)과 같은 대체 옵션을 검토해야 한다고 조언했다.

 

 

#가트너#AI#LLM#데이터센터#

 
?

List of Articles
번호 분류 제목 글쓴이 날짜 조회 수
1418 헥사곤-니콘 SLM, 에어버스 A330 연료 공기 분리기 75% 경량화 시제품 제작 성공 - 적층 제조 설계 솔루션 및 3D 프린팅 기술 통해 부품 무게 기존 35kg에서 8.8kg 미만으로 경량화 헥사곤 매뉴팩처링 인텔리전스는 니콘 SLM 솔루션즈(Nikon SLM... file newsit 2024.11.29 487
1417 마이크로스트레티지 코리아, 건강보험심사평가원 DW 및 OLAP 시스템 활용 사례 발표 - 건강보험심사평가원, 마이크로스트레티지 OLAP 시스템으로 데이터 기반 업무 혁신 선도 마이크로스트레티지 코리아는 연례 글로벌 행사인 ‘MicroStrategy World... file newsit 2024.11.29 363
1416 딥엘, 음성 번역 솔루션 ‘딥엘 보이스’ 출시…“차세대 LLM에 한국어 추가” - 딥엘 첫 음성 번역 솔루션, 딥엘 보이스 포 미팅, 보이스 포 컨버세이션 2개 모델로 개발 - 지난 7월 출시된 차세대 LLM에 한국어 추가… 향상된 번역 품질 제공... file newsit 2024.11.29 463
1415 엔비디아, 텍스트만으로 오디오 생성하는 AI 모델 ‘푸가토’ 공개 - 32개 H100 텐서 코어 GPU 탑재한 엔비디아 DGX 시스템에서 훈련 - 미세 조정과 소량의 데이트 통해 사전 훈련 없이도 작업 처리 - 개별적인 명령어 결합과 세밀... file newsit 2024.11.27 543
1414 한국 듀폰, GPTW코리아 ‘일하기 좋은 기업’ 인증 …“핵심가치를 기반으로 자율적이고 수평적인 기업문화 구현” - 킹맘’, ‘시니어’가 일하기 좋은 기업으로도 선정 한국 듀폰이 GPTW코리아(Great Place to Work Korea)로부터 ‘2024 일하기 좋은 기업’ 인증을 획득하고, 특별 ... file newsit 2024.11.27 554
1413 티맥스티베로, 쌍용레미콘 정보시스템 클라우드 전환 성료 - 레미콘 제조사 1등급 전사적자원관리(ERP) DB 첫 전환 구축 사례 - 5개월의 개념증명(PoC) 거쳐 시스템 안정화 최종 완료 국내 대표 데이터베이스관리시스템(DB... file newsit 2024.11.27 596
1412 다쏘시스템, 협업으로 임상시험 내 ‘버추얼 트윈’ 사용 가이드 발표 - 다쏘시스템, FDA와 5년간의 협력 결과물로 더 빠르고 안전한 의료기기 평가 필요성 대응 요구 발맞춰 - 동료 평가 완료, 인실리코(in silico) 임상시험 신뢰성 ... file newsit 2024.11.26 539
1411 SAS, 2025년 인공지능(AI) 트랜드 발표…“생성형 AI는 더욱 전문화되고 지속가능성 향상” - 기업은 클라우드 네이티브의 AI 기반 플랫폼 활용해 실질적인 비즈니스 성과 창출할 것 SAS가 ‘2025년 인공지능(AI) 트랜드 전망’을 발표하고, 최근 몇 년간 AI... file newsit 2024.11.26 594
1410 한국레노버-구글코리아, 부산에서 ‘에듀 토크 콘서트’ 개최…“교사 역량 강화 지원” - 2년 연속 교사 대상 토크 콘서트 열어 - 미래형 교육 환경 위한 구글코리아 공동 프로젝트…부산 소재 중학교 사례 공유 - IT, 교육 분야 등 전문가 4명 초청… ... file newsit 2024.11.26 500
1409 티맥스소프트·티맥스티베로, '소프트웨이브 2024' 참가…“AI 클라우드 혁신 지원” - 클라우드 최적화 미들웨어와 DB로 ‘미래 AI 경쟁력’ 선보여 - 티맥스소프트·티맥스티베로, 미래 AI 생태계 강화 위해 협력 계획 - 티맥스소프트, ‘소프트웨이브... file newsit 2024.11.25 510
목록
Board Pagination Prev 1 ... 87 88 89 90 91 92 93 94 95 96 ... 233 Next
/ 233
CLOSE