ABOUT ME

-

Today
-
Yesterday
-
Total
-
  • NVIDIA DGX부터 ASUS Ascent GX10, MSI EdgeXpert까지 - AI 서버 시장이 바뀌고 있다
    IT 2026. 3. 13. 23:00

    AI 서버가 일반 기업과 개인에게도 열리고 있다

    불과 몇 년 전만 해도 AI 서버는 구글, 메타, 아마존 같은 빅테크 기업들의 전유물이었습니다. 수억 원에서 수십억 원에 달하는 가격, 특수 냉각 시설이 필요한 전력 요구량, 전담 엔지니어 없이는 운영할 수 없는 복잡함이 장벽이었습니다.

    그런데 최근 이 흐름이 바뀌고 있습니다. NVIDIA가 다양한 규모의 DGX(Deep GPU Xceleration) 제품을 내놓고, ASUS와 MSI 같은 대만 제조사들이 동일한 칩을 탑재한 경쟁 제품을 출시하면서, AI 서버가 중소기업과 연구기관, 심지어 개인 개발자에게도 현실적인 선택지가 되고 있습니다.

    NVIDIA DGX 시리즈 - AI 서버의 기준점

    DGX는 NVIDIA가 직접 설계하고 판매하는 AI 전용 컴퓨팅 시스템입니다. 단순히 GPU를 여러 개 꽂은 서버가 아니라, AI 학습과 추론에 최적화된 소프트웨어 스택까지 포함한 완성형 플랫폼입니다.

    현재 DGX 라인업은 크게 세 가지 범주로 나뉩니다.

    1. 데이터센터급 - DGX B200

    DGX B200은 NVIDIA의 최신 Blackwell 아키텍처 GPU인 B200을 8개 탑재한 서버입니다.

    • GPU: NVIDIA B200 x 8개
    • GPU 메모리: 약 1.5TB (B200 192GB x 8)
    • AI 성능: 최대 72 PetaFLOPS (FP8 기준)
    • 연결: NVLink 5세대로 GPU간 고속 통신
    • 가격: 수억 원대 (대기업, 클라우드 서비스 대상)

    주로 대형 LLM(거대언어모델) 학습, 클라우드 AI 추론 서비스 운영, 국가 연구기관 등에서 쓰입니다.

    더 큰 규모가 필요하면 여러 DGX B200을 묶은 DGX SuperPOD나 랙 단위로 통합된 GB200 NVL72로 확장할 수 있습니다. GB200 NVL72는 단일 랙에 72개의 Blackwell GPU를 연결한 구성으로, 현재 가장 강력한 상용 AI 인프라 중 하나입니다.

    2. 워크스테이션급 - DGX Station

    DGX Station은 사무실이나 연구실에 놓을 수 있는 고성능 AI 워크스테이션입니다. 데이터센터용 서버와 달리 220V 일반 전원으로도 동작하도록 설계되어 있습니다.

    • 기반 칩: NVIDIA GB200 Grace Blackwell Superchip
    • 메모리: 최대 1.5TB 통합 메모리
    • 특징: 회사나 연구소 책상 옆에 설치 가능
    • 주 용도: 대규모 모델 학습, 기업 내부 AI 개발 환경

    3. 개인용 - DGX Spark (가장 주목받는 제품)

    DGX Spark는 2025년 초 발표된 "책상 위의 AI 슈퍼컴퓨터"입니다. 기존 DGX 제품들과 달리 개인 개발자, 스타트업, 중소기업도 구매할 수 있는 가격대를 지향합니다.

    • : NVIDIA GB10 Grace Blackwell Superchip (CPU+GPU 통합)
    • 메모리: 128GB 통합 메모리 (CPU와 GPU가 공유)
    • AI 성능: 1 PetaFLOP (INT8 기준)
    • 크기: 소형 데스크톱 수준
    • 가격: 약 3,000달러 (약 400만 원대)
    • OS: NVIDIA DGX OS (Ubuntu 기반) 포함

    1 PetaFLOP이 어느 정도냐면, 7B(70억 파라미터) 규모의 LLM을 실시간으로 로컬에서 돌리는 게 가능한 수준입니다. 클라우드 API 없이 내 컴퓨터에서 고성능 AI 모델을 운영할 수 있게 되는 겁니다.

    특히 GB10은 CPU와 GPU 메모리를 통합(Unified Memory)하는 구조라, 일반 PC처럼 CPU 메모리 ↔ GPU 메모리 간 데이터 복사 병목이 없습니다. 이것이 성능 효율을 높이는 핵심입니다.

    대만 제조사들의 참전 - 같은 칩, 다른 제품

    NVIDIA가 GB10 칩을 공급하기로 하면서, 대만의 서버 제조 강자들이 잇따라 호환 제품을 내놓기 시작했습니다. ASUS, MSI, 기가바이트 등이 대표적입니다.

    이 제품들의 핵심은 DGX Spark와 동일한 GB10 칩을 탑재하되, 각 제조사만의 폼팩터, 디자인, 부가 기능, 가격 정책으로 차별화한다는 점입니다.

    ASUS Ascent GX10

    에이수스(ASUS)가 내놓은 NVIDIA GB10 기반 AI 슈퍼컴퓨터입니다. 2025년 국내 출시가 시작됐습니다.

    • : NVIDIA GB10 Grace Blackwell Superchip (DGX Spark와 동일)
    • 특징: ASUS의 서버 제조 노하우 + NVIDIA 칩 조합
    • 제조사 강점: ASUS는 세계 최대 서버 ODM 중 하나로, 안정성과 A/S 인프라가 검증되어 있음

    에이수스는 이에 그치지 않고 데이터센터급으로도 제품군을 확장하고 있습니다. NVIDIA HGX B300 기반 차세대 AI 서버를 2025 OCP(Open Compute Project) 글로벌 서밋에서 공개했으며, NVIDIA의 최신 Blackwell Ultra 아키텍처를 탑재한 제품을 준비 중입니다.

    MSI EdgeXpert

    MSI(Micro-Star International)도 NVIDIA DGX Spark 기반의 AI 슈퍼컴퓨터를 출시했습니다. 국내에서는 명인이노가 단독 공급하고 있습니다.

    • 기반: NVIDIA DGX Spark 플랫폼
    • 수상: CES 2026 혁신상 수상
    • 보증: 무상 보증 3년 제공 (명인이노 공급 버전)
    • 특징: MSI 특유의 컴팩트하고 세련된 디자인

    MSI는 게이밍 PC와 노트북으로 유명하지만, 실제로는 서버와 워크스테이션 분야에서도 오랜 경험을 가진 기업입니다. EdgeXpert는 그 역량을 AI 슈퍼컴퓨터로 확장한 제품입니다.

    기가바이트(GIGABYTE) 등 기타 제조사

    기가바이트도 CES 2025에서 NVIDIA 기반 AI 서버 솔루션을 선보였습니다. 클라우드부터 엣지 컴퓨팅까지 포괄하는 제품 라인업을 발표했으며, 대규모 데이터센터용 GPU 서버도 포함되어 있습니다.

    NVIDIA는 이 파트너들이 제품을 만들 수 있도록 MGX(Modular Reference Architecture)라는 플랫폼을 제공합니다. 파트너사들은 이 레퍼런스 설계를 기반으로 자신만의 서버를 만들 수 있습니다. 마치 스마트폰 제조사들이 퀄컴의 레퍼런스 디자인을 기반으로 각자의 폰을 만드는 것과 비슷한 구조입니다.

    왜 대만 제조사들이 뛰어들었나

    ASUS, MSI, 기가바이트는 모두 대만 기반 기업입니다. 이들이 공격적으로 AI 서버 시장에 뛰어드는 데는 몇 가지 이유가 있습니다.

    1. 제조 역량이 이미 있다

    이 기업들은 수십 년간 마더보드, 그래픽카드, 서버를 만들어왔습니다. AI 서버에 필요한 고성능 열 설계, 전원 공급 시스템, 고밀도 PCB 설계는 이미 갖춰진 역량입니다. 새로운 기술을 배울 필요 없이 기존 역량을 적용하면 됩니다.

    2. NVIDIA가 생태계를 열었다

    NVIDIA는 최고 성능 제품(DGX)을 직접 만들면서도, 동시에 파트너들이 같은 칩으로 다양한 제품을 만들 수 있도록 생태계를 열어두고 있습니다. HGX, MGX 플랫폼이 그것입니다. NVIDIA 입장에서는 더 많은 곳에 자사 칩이 탑재될수록 좋기 때문입니다.

    3. 수요가 폭발적으로 늘고 있다

    ChatGPT 이후 기업들의 AI 도입이 가속화되면서, AI 전용 컴퓨팅 인프라 수요가 급증했습니다. 클라우드를 쓰면 비용이 계속 나가고, 데이터 보안 우려도 있습니다. 온프레미스(자체 구축) AI 서버 수요가 늘어날 수밖에 없는 환경입니다.

    DGX와 파트너 제품의 차이는?

    같은 GB10 칩을 쓴다면 DGX Spark, ASUS Ascent GX10, MSI EdgeXpert가 사실상 같은 제품 아닐까요? 기본 AI 성능은 비슷하지만, 다음과 같은 차이가 있습니다.

    • 소프트웨어 스택: DGX는 NVIDIA가 직접 최적화한 DGX OS와 AI 소프트웨어 스택이 포함됩니다. 파트너 제품은 별도 구성이 필요할 수 있습니다.
    • 지원 체계: DGX는 NVIDIA 직접 엔터프라이즈 지원. 파트너 제품은 각 제조사 지원.
    • 설계 자유도: 파트너들은 폼팩터, 냉각 방식, 확장 슬롯 등을 독자적으로 설계할 수 있습니다.
    • 가격/유통: 파트너 제품은 현지 유통망을 통해 더 빠르게 구매하고, A/S를 받을 수 있습니다.

    즉 DGX는 "NVIDIA 공인 표준", 파트너 제품은 "같은 엔진으로 만든 다양한 차종"이라고 볼 수 있습니다.

    AI 서버, 누구에게 필요한가

    이런 제품들이 실제로 필요한 상황을 정리하면 다음과 같습니다.

    • DGX B200 / HGX B300: AI 모델을 직접 학습시키는 기업, AI 서비스를 대규모로 운영하는 클라우드 사업자, 국가 연구기관
    • DGX Station: 사내 AI 개발팀이 있는 중견기업, 대학 연구실, AI 스타트업의 개발 서버
    • DGX Spark / ASUS GX10 / MSI EdgeXpert: 로컬 AI 서버가 필요한 개발자, 의료/법률 등 데이터를 외부로 보낼 수 없는 전문직, AI 교육 기관, AI 기능을 내부에 도입하려는 중소기업

    앞으로의 흐름

    몇 가지 방향이 예상됩니다.

    • 퍼스널 AI 슈퍼컴퓨터 보급 확대: DGX Spark 계열이 성공하면, 개인용 AI 서버가 일반 워크스테이션처럼 보편화될 수 있습니다.
    • 파트너 생태계 성장: ASUS, MSI 외에도 더 많은 제조사가 뛰어들면서 가격 경쟁이 생기고, 소비자 선택지가 늘어날 전망입니다.
    • 소프트웨어 생태계가 핵심: 하드웨어 성능은 비슷해질 것이므로, 결국 어떤 AI 소프트웨어 스택과 사용 편의성을 제공하느냐가 차별점이 됩니다. NVIDIA의 CUDA 생태계가 여전히 강력한 해자(護岸)입니다.
    • 온프레미스 vs 클라우드 균형: AI 서버 가격이 낮아지면서, 클라우드 API 비용과 온프레미스 구매 비용의 손익분기점이 달라집니다. 사용량이 많은 기업은 온프레미스로 이동할 유인이 커집니다.

    마치며

    NVIDIA DGX는 더 이상 빅테크 기업만을 위한 장비가 아닙니다. DGX Spark와 파트너 제품들의 등장은 AI 인프라의 민주화를 상징합니다.

    ASUS, MSI 같은 대만 제조사들의 참여는 이 시장에 건전한 경쟁을 가져옵니다. 같은 NVIDIA 칩을 쓰더라도 어떤 형태로 패키징하고, 어떤 가격과 서비스로 제공하느냐에 따라 선택지가 다양해집니다.

    AI가 특정 기업의 클라우드에서만 돌아가던 시대에서, 내 사무실과 연구실에서 직접 돌아가는 시대로 이동하는 변곡점에 우리가 서 있습니다.


    이 글은 생성형 AI의 도움을 받아 작성되었습니다. 원본 자료를 기반으로 AI가 초안을 생성하고, 작성자가 검토·편집하였습니다.

Designed by Tistory.