주요 AI 데이터센터 소모전력 비교
| 데이터 센터 | GPU수 | 처리 성능 | 전력 소모량 | 위치 | 기능 |
| xAI Colossus | 200,000 H100 | ~20 Zettaflops (AI FP8추정) | 150MW 이상 | 미국 멤피스 | Grok LLM 훈련 등 |
| El Capitan (LLNL) | AMD MI300A | 1.7 Exaflops (HPL) | 29.6MW | 미국 캘리포니아 | 과학/시뮬레이션 |
| Frontier (ORNL) | AMD MI250X 등 | 1.6 Exaflops (HPL) | 22.7MW | 미국 테네시 | 과학/AI 슈퍼컴퓨팅 |
| Meta AI | 100,000 H100 | ~10 Zettaflops (AI) | 90MW 이상 추정 | 미국(여러 곳) | LLM, 추천 시스템 |
| Microsoft/OpenAI | 100,000 H100 | ~10 Zettaflops (AI) | 100MW 이상 추정 | 미국 | GPT-4, LLM |
| Oracle Cloud AI | 65,536 H200 | 8 Zettaflops (AI) | 50~70MW 추정 | 미국 | 엔터프라이즈 AI |
| NVIDIA Eos | 4,608 H100 | 18.4 Exaflops(FP8) | 3~4MW 추정 | 미국 | AI/HPC 연구 |
- Colossus는 현재 세계 최대급 AI 데이터센터로 약 20 Zettaflops의 AI 연산 성능과 150MW 이상의 전력 사용 능력을 가집니다.
- El Capitan, Frontier는 과학 연구, 국방 시뮬레이션용으로 각각 세계 정상급 총 연산성능(Exaflops급)과 최고 효율(Frontier: 62.7 GF/W 이상)이 특징입니다.
- Meta, Microsoft, Oracle 등도 수십만 개의 GPU와 10 Zettaflops 내외의 추정 AI 처리성능을 기록합니다.
- 대부분의 데이터센터들은 전력 사용량이 중소도시 전체와 맞먹는 50MW~150MW에 이릅니다.
전력 소모량(전기 사용량)
- 2024년 기준 전세계 데이터센터 전력 사용량: 약 415테라와트시(TWh), 세계 전력 소비의 약 1.5%.
- 2030년 예상치: 945TWh(일본 전국 소비량에 맞먹음)로 두 배 이상 증가 전망 – 이 중 AI 비중이 급증 추세.
- 미국: 2024년 176TWh 사용(미국 전체 발전량의 4.4%), 2028년엔 325~580TWh(전체 6.7~12%)까지 증가 예상.
- 주요 AI 데이터센터는 단일 데이터센터만으로 100~200MW의 전력 사용 – 중소도시 전체 전력 소비와 맞먹는 수준.
728x90
'무기체계와 소프트웨어' 카테고리의 다른 글
| Forward Deployed Engineer(FDE) (0) | 2025.09.02 |
|---|---|
| Anduril Lattice (0) | 2025.08.06 |
| ORCID(Open Researcher and Contributor ID) (0) | 2025.07.27 |
| Colossus 슈퍼컴퓨터 (0) | 2025.07.25 |