Building the Future of IT Infrastructure

Fujitsu PRIMERGY GX2570 M8s

2025. 12. 5.

Fujitsu PRIMERGY GX2570 M8s – NVIDIA HGX B200 기반 차세대 GenAI 전용 서버

생성형 AI, LLM, 멀티모달 모델이 커지면서 이제는 “GPU 몇 장”이 아니라

GPU 8장 + 고성능 CPU + 수랭/공랭까지 통으로 설계된 전용 AI 서버가 필요해졌습니다.

그 흐름에 맞춰 후지쯔가 2025년에 공개한 제품이 바로

Fujitsu PRIMERGY GX2570 M8s 입니다.

이 글에서는

  • GX2570 M8s가 어떤 포지션의 서버인지
  • NVIDIA HGX B200 (Blackwell) 8-GPU 플랫폼과의 조합
  • 공랭 10U / 수랭 4U 두 가지 모델의 특징
  • 실제로 어떤 워크로드에 잘 맞는지
  • 도입 시 체크해야 할 포인트

까지 한 번에 정리해보겠습니다.



1. PRIMERGY GX2570 M8s 한 줄 정의

후지쯔 공식 발표를 기준으로 GX2570 M8s를 한 줄로 정리하면

“대규모 생성형 AI를 위해 설계된, NVIDIA HGX B200 8-GPU 기반 고성능 서버”

조금 더 풀어서 말하면,

  • 대규모 GenAI / LLM / HPC를 타깃으로 한 듀얼 소켓 x86 서버
  • NVIDIA HGX B200 8-GPU를 기본 탑재 (Blackwell 세대)
  • 10U 공랭 모델4U 수랭 모델 두 가지 냉각 옵션 제공
  • 후지쯔 × Supermicro 협업 기반 GenAI 통합 스택(서버 + LLM + 운영지원) 안에 포함된 핵심 하드웨어

이라고 볼 수 있습니다.


2. 핵심 하드웨어 스펙 한눈에 보기

여러 자료를 종합해서, GX2570 M8s의 주요 하드웨어 스펙을 정리하면 다음과 같습니다.

기본 하드웨어 구성

  • 폼팩터
  • 10U Air-cooled(공랭) 모델
  • 4U Liquid-cooled(수랭) 모델
  • CPU
  • Intel Xeon 6 프로세서 6900 시리즈(P-core) 2소켓
  • GPU
  • NVIDIA HGX B200 8-GPU 베이스보드
  • B200 SXM GPU 8개 × HBM3e 180GB = 총 1.4TB HBM 고속 메모리
  • GPU 간 통신은 NVLink + NVSwitch로 풀 메쉬 구성
  • 시스템 메모리
  • DDR5 메모리 64GB ~ 최대 6TB,
  • 24 DIMM 슬롯 지원
  • 스토리지
  • 최대 10 × 2.5" NVMe SSD 베이 (올 NVMe 구성 가능)
  • 관리 및 모니터링
  • IPMI 2.0 호환 리모트 관리
  • 후지쯔 Infrastructure Manager(ISM) 연동으로
  • 서버 수명주기 관리 및 랙/데이터센터 단위 관제 지원
  • OS 인증
  • Red Hat Enterprise Linux 9.4~9.x 인증 하드웨어로 등록되어 있어 기업 표준 리눅스 환경에서 안정적으로 사용 가능

스펙만 봐도 “AI 서버”라기보다,

“1대가 곧 하나의 AI 팩토리 노드”에 가까운 급입니다.


3. NVIDIA HGX B200 8-GPU – 왜 중요한가?

GX2570 M8s의 핵심은 결국 HGX B200입니다.

NVIDIA 자료를 보면, HGX B200은

  • Blackwell 아키텍처 B200 GPU 8개를 한 베이스보드에 통합하고
  • 각 GPU는 180GB HBM3e 메모리,
  • 1.4TB급 고속 메모리 풀을 형성하며
  • NVLink / NVSwitch로 GPU 간 고대역폭(테라바이트/s급) 통신을 제공합니다.

Blackwell B200은

  • H100 대비 최대 2.5배 이상 빠른 학습,
  • 4.5배 수준의 추론 성능 향상,
  • NVLink 대역폭도 2배 수준으로 올라간 것으로 분석됩니다.

이 말은 곧,

“동일 랙/전력/운영비 기준에서
훨씬 더 큰 모델을, 더 빠르게, 더 많은 사용자에게 서비스할 수 있다”

는 의미입니다.

GenAI 환경에서 중요한 지표인 토큰/초(TPS),

응답 지연시간(ms), 서버당 처리 가능한 동시 세션 수

Blackwell 세대에서 크게 개선되기 때문에,

GX2570 M8s는 H100 세대에서 한 번 더 업그레이드할 때의 타깃 플랫폼으로 보시면 됩니다.


4. 10U 공랭 vs 4U 수랭 – 어떤 차이가 있을까?

후지쯔는 GX2570 M8s를 두 가지 냉각 방식으로 제안합니다.

1.10U Air-cooled(공랭) 모델

  • 기존 데이터센터 공조 시스템 기반으로 도입하고 싶은 경우
  • 랙당 높이는 크지만, 냉각 설비 변경 범위가 비교적 적음

2.4U Liquid-cooled(수랭) 모델

  • 동일 랙 공간에서 더 높은 집적도를 원할 때
  • 랙/열 통로에 수랭 매니폴드·CDU 등 인프라 구성이 가능할 때
  • 고밀도 랙(예: 30~60kW 이상) 구성에 더 적합

국내 데이터센터 기반을 생각하면,

  • 기존 코로케이션 환경 → 10U 공랭
  • 차세대 AI 전용 구역/개별 데이터센터 → 4U 수랭

정도로 나눠서 접근하는 게 현실적입니다.


5. 어떤 워크로드에 잘 맞을까?

GX2570 M8s는 후지쯔-슈퍼마이크로 협업 GenAI 스택의 핵심 서버로 소개되며,

특히 다음과 같은 워크로드에 최적화되어 있습니다.

5-1. 초거대 LLM / 멀티모달 모델 학습·파인튜닝

  • 100B ~ 1T 파라미터급 LLM 학습
  • 기업 도메인에 맞춘 프라이빗 LLM 파인튜닝
  • 텍스트 + 이미지 + 음성을 함께 다루는 멀티모달 모델

Blackwell B200의 대용량 HBM과 향상된 텐서 코어 덕분에,

모델 샤딩·파이프라인 병렬화에서 발생하는 오버헤드를 줄이고

동일 시간 대비 더 많은 스텝을 처리할 수 있습니다.

5-2. 고속 LLM 추론·서비스 인프라

  • 사내 검색·문서요약·QA 시스템
  • 고객 상담 봇, RAG 기반 챗봇
  • 코드 어시스턴트, 에이전트 기반 업무 자동화

대규모 사용자 수를 처리해야 하는 LLM 서비스 백엔드에서

GX2570 M8s는 “한 대당 처리량”을 최대화하는 역할을 합니다.

동일 랙 수 대비 토큰/초 처리량과 에너지 효율 모두가 중요할 때 선택지로 올라옵니다.

5-3. HPC + AI 융합 워크로드

  • CFD / FEA / 기후 / 재료 시뮬레이션 + AI 서러게이트
  • 바이오, 신약, 유전체 분석 + 생성 모델
  • Digital Twin + LLM/에이전트 조합

기존 HPC 코드를 그대로 GPU 가속하고,

그 위에 GenAI/LLM을 덧붙이려는 고객에게도

“하나의 노드에 HPC + AI 둘 다 태우기 좋은 구조”입니다.


6. 운영·관리 관점에서의 장점

하드웨어 스펙만큼 중요한 것이 운영·관리입니다.

후지쯔는 GX2570 M8s 기반 GenAI 솔루션에 다음과 같은 요소를 묶어 제공합니다.

1.Infrastructure Manager(ISM)

  • 서버 상태, 이벤트, 펌웨어, 자산관리 등을 통합 관리
  • 랙/데이터센터 단위 뷰 제공, 수명주기 관리 자동화

2.SupportDesk (유지보수 서비스)

  • 일본 기준으로는 2시간 이내 온사이트 대응 수준의 SLA 언급
  • 국내에서도 파트너/총판 체계를 통해 엔터프라이즈 수준 지원 가능

3.Takane LLM 및 GenAI 소프트웨어 스택 연동

  • 후지쯔의 자체 LLM(Takane)과 연결된 “엔터프라이즈 GenAI 스택” 일부로 동작
  • 하드웨어 + LLM + 운영 지원을 통합 패키지로 제안

실제로 도입하실 때는,

  • OS (RHEL / Ubuntu / 기타)
  • 쿠버네티스 / MLOps / RAG 플랫폼
  • 모니터링(Grafana, Prometheus 등)

까지 함께 설계해서 “AI 전용 존”을 만드는 그림으로 접근하는 게 자연스럽습니다.


7. 기존 세대 PRIMERGY GX2570 M6와의 차이

GX2570 M8s를 이해하려면, 이전 세대인 GX2570 M6와 비교하는 것도 좋습니다.

  • GX2570 M6
  • 4U 폼팩터
  • 듀얼 3rd Gen Intel Xeon Scalable
  • NVIDIA A100 8-GPU(SXM4) 구성
  • 최대 2TB DDR4, 최대 10× NVMe, 10× PCIe Gen4, 3+1 PSU 등
  • GX2570 M8s
  • 10U 공랭 / 4U 수랭
  • 듀얼 Intel Xeon 6 6900 시리즈 (P-core)
  • NVIDIA HGX B200 8-GPU (Blackwell)
  • 최대 6TB DDR5, NVMe 10베이, 차세대 냉각/전력 설계

세대가 바뀌면서 바뀐 포인트를 정리하면

1.GPU: A100 → B200 (Blackwell)

  • 메모리: 80GB → 180GB HBM3e (GPU당)
  • 추론/학습 성능: 세대당 2~4배 이상 향상

2.CPU: Xeon Scalable → Xeon 6 P-core

  • 더 높은 코어 성능과 메모리 대역폭
  • GenAI + HPC 혼합 워크로드에 유리

3.메모리 & I/O: DDR4 → DDR5, 더 많은 슬롯 / 용량

정리하면,

“GX2570 M6가 A100 세대의 대표적인 엔터프라이즈 AI 서버였다면,
GX2570 M8s는 Blackwell 세대 GenAI 서버의 기준점에 가까운 제품”

이라고 볼 수 있습니다.


8. 도입 시 체크해야 할 현실적인 포인트

GX2570 M8s 급 서버를 실제로 들여오려면,

다음과 같은 부분은 반드시 먼저 검토해 보셔야 합니다.

1.전력 용량

  • HGX B200 8-GPU, 듀얼 Xeon 6, NVMe 구성 → 서버 1대 전력만 수 kW~10kW급
  • 랙당 몇 대를 넣을지에 따라 랙 전력 한도, UPS 용량, PDU 구성 재검토 필수

2.냉각 설비

  • 공랭 10U 모델도 발열이 상당하며,
  • 수랭 4U 모델은 CDU, 매니폴드, 배관 설계까지 필요
  • 데이터센터 기계실(냉동기, 냉각수 루프, 펌프 등) 설계와 연계

3.네트워크 패브릭

  • InfiniBand / 고속 이더넷(100G~400G) 기반 Spine-Leaf 토폴로지
  • 이후 멀티 노드 클러스터 구성을 염두에 둔 포트/랙 배치

4.스토리지

  • 학습 데이터·체크포인트·피쳐/벡터 스토어 등
  • 초당 수십 GB/s 이상 처리 가능한 병렬 스토리지/오브젝트 스토리지 구성

5.소프트웨어 스택

  • NVIDIA AI Enterprise, 컨테이너 런타임, 쿠버네티스, MLOps, RAG 프레임워크 등
  • 내부 보안/컴플라이언스 정책과의 정합성


9. 마무리

PRIMERGY GX2570 M8s는 요약하면 이렇게 정리할 수 있습니다.

  1. NVIDIA HGX B200 8-GPU + Xeon 6 6900 듀얼 소켓 기반의
  2. 차세대 GenAI 전용 서버
  3. 10U 공랭 / 4U 수랭 두 가지 모델로
  4. 기존 데이터센터와 차세대 AI 존 모두를 커버
  5. 최대 6TB DDR5, 1.4TB HBM3e, NVMe 10베이 구성으로
  6. 대규모 LLM 학습·추론·HPC+AI 융합 워크로드를 한 번에 처리
  7. 후지쯔의 ISM, SupportDesk, Takane LLM 등과 결합된
  8. 엔터프라이즈 GenAI 통합 스택의 핵심 하드웨어

“우리 회사의 다음 AI 서버 세대는 Blackwell로 가야 하나?”를 고민 중이라면,

그 후보군 안에 들어갈 만한 모델이 바로 PRIMERGY GX2570 M8s입니다.


📞 지금 바로 문의하세요!

Fujitsu PRIMERGY GX2570 M8s GPU 서버로

귀사의 생성형 AI · LLM · HPC 워크로드를 완전히 새로운 레벨로 끌어올려보세요.

“우리 환경에 PRIMERGY GX2570 M8s가 맞을까?” 고민되신다면,

지금 바로 연락 주시면 환경에 딱 맞는 구성안과 견적을 신속하게 제안드리겠습니다.

📞 문의 전화: 042-823-3802

📧 이메일: info@itzone.co.kr