Fujitsu PRIMERGY GX2570 M8s
2025. 12. 5.
Fujitsu PRIMERGY GX2570 M8s – NVIDIA HGX B200 기반 차세대 GenAI 전용 서버
생성형 AI, LLM, 멀티모달 모델이 커지면서 이제는 “GPU 몇 장”이 아니라
GPU 8장 + 고성능 CPU + 수랭/공랭까지 통으로 설계된 전용 AI 서버가 필요해졌습니다.
그 흐름에 맞춰 후지쯔가 2025년에 공개한 제품이 바로
Fujitsu PRIMERGY GX2570 M8s 입니다.
이 글에서는
- GX2570 M8s가 어떤 포지션의 서버인지
- NVIDIA HGX B200 (Blackwell) 8-GPU 플랫폼과의 조합
- 공랭 10U / 수랭 4U 두 가지 모델의 특징
- 실제로 어떤 워크로드에 잘 맞는지
- 도입 시 체크해야 할 포인트
까지 한 번에 정리해보겠습니다.
1. PRIMERGY GX2570 M8s 한 줄 정의
후지쯔 공식 발표를 기준으로 GX2570 M8s를 한 줄로 정리하면
“대규모 생성형 AI를 위해 설계된, NVIDIA HGX B200 8-GPU 기반 고성능 서버”
조금 더 풀어서 말하면,
- 대규모 GenAI / LLM / HPC를 타깃으로 한 듀얼 소켓 x86 서버
- NVIDIA HGX B200 8-GPU를 기본 탑재 (Blackwell 세대)
- 10U 공랭 모델과 4U 수랭 모델 두 가지 냉각 옵션 제공
- 후지쯔 × Supermicro 협업 기반 GenAI 통합 스택(서버 + LLM + 운영지원) 안에 포함된 핵심 하드웨어
이라고 볼 수 있습니다.
2. 핵심 하드웨어 스펙 한눈에 보기
여러 자료를 종합해서, GX2570 M8s의 주요 하드웨어 스펙을 정리하면 다음과 같습니다.
기본 하드웨어 구성
- 폼팩터
- 10U Air-cooled(공랭) 모델
- 4U Liquid-cooled(수랭) 모델
- CPU
- Intel Xeon 6 프로세서 6900 시리즈(P-core) 2소켓
- GPU
- NVIDIA HGX B200 8-GPU 베이스보드
- B200 SXM GPU 8개 × HBM3e 180GB = 총 1.4TB HBM 고속 메모리
- GPU 간 통신은 NVLink + NVSwitch로 풀 메쉬 구성
- 시스템 메모리
- DDR5 메모리 64GB ~ 최대 6TB,
- 총 24 DIMM 슬롯 지원
- 스토리지
- 최대 10 × 2.5" NVMe SSD 베이 (올 NVMe 구성 가능)
- 관리 및 모니터링
- IPMI 2.0 호환 리모트 관리
- 후지쯔 Infrastructure Manager(ISM) 연동으로
- 서버 수명주기 관리 및 랙/데이터센터 단위 관제 지원
- OS 인증
- Red Hat Enterprise Linux 9.4~9.x 인증 하드웨어로 등록되어 있어 기업 표준 리눅스 환경에서 안정적으로 사용 가능
스펙만 봐도 “AI 서버”라기보다,
“1대가 곧 하나의 AI 팩토리 노드”에 가까운 급입니다.
3. NVIDIA HGX B200 8-GPU – 왜 중요한가?
GX2570 M8s의 핵심은 결국 HGX B200입니다.
NVIDIA 자료를 보면, HGX B200은
- Blackwell 아키텍처 B200 GPU 8개를 한 베이스보드에 통합하고
- 각 GPU는 180GB HBM3e 메모리,
- 총 1.4TB급 고속 메모리 풀을 형성하며
- NVLink / NVSwitch로 GPU 간 고대역폭(테라바이트/s급) 통신을 제공합니다.
Blackwell B200은
- H100 대비 최대 2.5배 이상 빠른 학습,
- 4.5배 수준의 추론 성능 향상,
- NVLink 대역폭도 2배 수준으로 올라간 것으로 분석됩니다.
이 말은 곧,
“동일 랙/전력/운영비 기준에서
훨씬 더 큰 모델을, 더 빠르게, 더 많은 사용자에게 서비스할 수 있다”
는 의미입니다.
GenAI 환경에서 중요한 지표인 토큰/초(TPS),
응답 지연시간(ms), 서버당 처리 가능한 동시 세션 수가
Blackwell 세대에서 크게 개선되기 때문에,
GX2570 M8s는 H100 세대에서 한 번 더 업그레이드할 때의 타깃 플랫폼으로 보시면 됩니다.
4. 10U 공랭 vs 4U 수랭 – 어떤 차이가 있을까?
후지쯔는 GX2570 M8s를 두 가지 냉각 방식으로 제안합니다.
1.10U Air-cooled(공랭) 모델
- 기존 데이터센터 공조 시스템 기반으로 도입하고 싶은 경우
- 랙당 높이는 크지만, 냉각 설비 변경 범위가 비교적 적음
2.4U Liquid-cooled(수랭) 모델
- 동일 랙 공간에서 더 높은 집적도를 원할 때
- 랙/열 통로에 수랭 매니폴드·CDU 등 인프라 구성이 가능할 때
- 고밀도 랙(예: 30~60kW 이상) 구성에 더 적합
국내 데이터센터 기반을 생각하면,
- 기존 코로케이션 환경 → 10U 공랭
- 차세대 AI 전용 구역/개별 데이터센터 → 4U 수랭
정도로 나눠서 접근하는 게 현실적입니다.
5. 어떤 워크로드에 잘 맞을까?
GX2570 M8s는 후지쯔-슈퍼마이크로 협업 GenAI 스택의 핵심 서버로 소개되며,
특히 다음과 같은 워크로드에 최적화되어 있습니다.
5-1. 초거대 LLM / 멀티모달 모델 학습·파인튜닝
- 100B ~ 1T 파라미터급 LLM 학습
- 기업 도메인에 맞춘 프라이빗 LLM 파인튜닝
- 텍스트 + 이미지 + 음성을 함께 다루는 멀티모달 모델
Blackwell B200의 대용량 HBM과 향상된 텐서 코어 덕분에,
모델 샤딩·파이프라인 병렬화에서 발생하는 오버헤드를 줄이고
동일 시간 대비 더 많은 스텝을 처리할 수 있습니다.
5-2. 고속 LLM 추론·서비스 인프라
- 사내 검색·문서요약·QA 시스템
- 고객 상담 봇, RAG 기반 챗봇
- 코드 어시스턴트, 에이전트 기반 업무 자동화
대규모 사용자 수를 처리해야 하는 LLM 서비스 백엔드에서
GX2570 M8s는 “한 대당 처리량”을 최대화하는 역할을 합니다.
동일 랙 수 대비 토큰/초 처리량과 에너지 효율 모두가 중요할 때 선택지로 올라옵니다.
5-3. HPC + AI 융합 워크로드
- CFD / FEA / 기후 / 재료 시뮬레이션 + AI 서러게이트
- 바이오, 신약, 유전체 분석 + 생성 모델
- Digital Twin + LLM/에이전트 조합
기존 HPC 코드를 그대로 GPU 가속하고,
그 위에 GenAI/LLM을 덧붙이려는 고객에게도
“하나의 노드에 HPC + AI 둘 다 태우기 좋은 구조”입니다.
6. 운영·관리 관점에서의 장점
하드웨어 스펙만큼 중요한 것이 운영·관리입니다.
후지쯔는 GX2570 M8s 기반 GenAI 솔루션에 다음과 같은 요소를 묶어 제공합니다.
1.Infrastructure Manager(ISM)
- 서버 상태, 이벤트, 펌웨어, 자산관리 등을 통합 관리
- 랙/데이터센터 단위 뷰 제공, 수명주기 관리 자동화
2.SupportDesk (유지보수 서비스)
- 일본 기준으로는 2시간 이내 온사이트 대응 수준의 SLA 언급
- 국내에서도 파트너/총판 체계를 통해 엔터프라이즈 수준 지원 가능
3.Takane LLM 및 GenAI 소프트웨어 스택 연동
- 후지쯔의 자체 LLM(Takane)과 연결된 “엔터프라이즈 GenAI 스택” 일부로 동작
- 하드웨어 + LLM + 운영 지원을 통합 패키지로 제안
실제로 도입하실 때는,
- OS (RHEL / Ubuntu / 기타)
- 쿠버네티스 / MLOps / RAG 플랫폼
- 모니터링(Grafana, Prometheus 등)
까지 함께 설계해서 “AI 전용 존”을 만드는 그림으로 접근하는 게 자연스럽습니다.
7. 기존 세대 PRIMERGY GX2570 M6와의 차이
GX2570 M8s를 이해하려면, 이전 세대인 GX2570 M6와 비교하는 것도 좋습니다.
- GX2570 M6
- 4U 폼팩터
- 듀얼 3rd Gen Intel Xeon Scalable
- NVIDIA A100 8-GPU(SXM4) 구성
- 최대 2TB DDR4, 최대 10× NVMe, 10× PCIe Gen4, 3+1 PSU 등
- GX2570 M8s
- 10U 공랭 / 4U 수랭
- 듀얼 Intel Xeon 6 6900 시리즈 (P-core)
- NVIDIA HGX B200 8-GPU (Blackwell)
- 최대 6TB DDR5, NVMe 10베이, 차세대 냉각/전력 설계
세대가 바뀌면서 바뀐 포인트를 정리하면
1.GPU: A100 → B200 (Blackwell)
- 메모리: 80GB → 180GB HBM3e (GPU당)
- 추론/학습 성능: 세대당 2~4배 이상 향상
2.CPU: Xeon Scalable → Xeon 6 P-core
- 더 높은 코어 성능과 메모리 대역폭
- GenAI + HPC 혼합 워크로드에 유리
3.메모리 & I/O: DDR4 → DDR5, 더 많은 슬롯 / 용량
정리하면,
“GX2570 M6가 A100 세대의 대표적인 엔터프라이즈 AI 서버였다면,
GX2570 M8s는 Blackwell 세대 GenAI 서버의 기준점에 가까운 제품”
이라고 볼 수 있습니다.
8. 도입 시 체크해야 할 현실적인 포인트
GX2570 M8s 급 서버를 실제로 들여오려면,
다음과 같은 부분은 반드시 먼저 검토해 보셔야 합니다.
1.전력 용량
- HGX B200 8-GPU, 듀얼 Xeon 6, NVMe 구성 → 서버 1대 전력만 수 kW~10kW급
- 랙당 몇 대를 넣을지에 따라 랙 전력 한도, UPS 용량, PDU 구성 재검토 필수
2.냉각 설비
- 공랭 10U 모델도 발열이 상당하며,
- 수랭 4U 모델은 CDU, 매니폴드, 배관 설계까지 필요
- 데이터센터 기계실(냉동기, 냉각수 루프, 펌프 등) 설계와 연계
3.네트워크 패브릭
- InfiniBand / 고속 이더넷(100G~400G) 기반 Spine-Leaf 토폴로지
- 이후 멀티 노드 클러스터 구성을 염두에 둔 포트/랙 배치
4.스토리지
- 학습 데이터·체크포인트·피쳐/벡터 스토어 등
- 초당 수십 GB/s 이상 처리 가능한 병렬 스토리지/오브젝트 스토리지 구성
5.소프트웨어 스택
- NVIDIA AI Enterprise, 컨테이너 런타임, 쿠버네티스, MLOps, RAG 프레임워크 등
- 내부 보안/컴플라이언스 정책과의 정합성
9. 마무리
PRIMERGY GX2570 M8s는 요약하면 이렇게 정리할 수 있습니다.
- NVIDIA HGX B200 8-GPU + Xeon 6 6900 듀얼 소켓 기반의
- 차세대 GenAI 전용 서버
- 10U 공랭 / 4U 수랭 두 가지 모델로
- 기존 데이터센터와 차세대 AI 존 모두를 커버
- 최대 6TB DDR5, 1.4TB HBM3e, NVMe 10베이 구성으로
- 대규모 LLM 학습·추론·HPC+AI 융합 워크로드를 한 번에 처리
- 후지쯔의 ISM, SupportDesk, Takane LLM 등과 결합된
- 엔터프라이즈 GenAI 통합 스택의 핵심 하드웨어
“우리 회사의 다음 AI 서버 세대는 Blackwell로 가야 하나?”를 고민 중이라면,
그 후보군 안에 들어갈 만한 모델이 바로 PRIMERGY GX2570 M8s입니다.
📞 지금 바로 문의하세요!
Fujitsu PRIMERGY GX2570 M8s GPU 서버로
귀사의 생성형 AI · LLM · HPC 워크로드를 완전히 새로운 레벨로 끌어올려보세요.
“우리 환경에 PRIMERGY GX2570 M8s가 맞을까?” 고민되신다면,
지금 바로 연락 주시면 환경에 딱 맞는 구성안과 견적을 신속하게 제안드리겠습니다.
📞 문의 전화: 042-823-3802
📧 이메일: info@itzone.co.kr