문의하기

NVIDIA

BN I&C는 인공지능 컴퓨팅 분야의 세계적인 선도기업 NVIDIA의 Elite Partner로
AI/Deep Learning을 주도하고 있습니다.

Datacenter GPU 사양 비교

항목 H200 NVL H100 NVL L40s L40 L4
이미지 H200 NVL H100 NVL L40s L40 L4
기능대규모 언어 모델(LLM) 학습 및 고성능 컴퓨팅(HPC)워크스테이션 최적화 및 GDDR6 기반
CUDA 병렬
프로세싱 코어
16,89614,95218,17618,1767,680
NVIDIA
텐서 코어
528456568568240
NVIDIA
RT 코어
--14214260
GPU 메모리141GB94GB48GB GDDR6 ECC48GB GDDR6 ECC24GB GDDR6
메모리 대역폭4.8TB/s3.9TB/s864GB/s864GB/s300GB/s
FP64 성능60 TFLOPS60 TFLOPS1,414 GFLOPS-489.6 GFLOPS
FP32 (싱글) 성능60TOPS60 TFLOPS90.52 TF91.6 TF30.3 TF
FP16 성능1,671 TFLOPS1,671 TFLOPS90.52 TF733 TF242 TF
INT8 성능3,341 TFLOPS3,341 TFLOPS--485 TOPS
최대 전력 소비Up to 600W350~400W700W350W250W
그래픽 버스PCIe 5.0 x16PCIe 5.0 x16PCIe 4.0 x16PCIe 4.0 x16PCIe 4.0 x16
폼 팩터듀얼 슬롯 PCIe듀얼 슬롯 PCIe2슬롯4.4”(H) x 10.5”(L)1슬롯
vGPU 지원Include NVAIE
(NVIDIA AI Enterprise)
Include NVAIEvGPU 16, GPU 15vGPU 16, GPU 15지원

NVIDIA H200 NVL

주요 엔터프라이즈 서버를 위한 AI 가속 극대화

DGX Spark

NVIDIA H200 NVL은 유연한 구성이 필요한 저전력 공랭식 엔터프라이즈 랙 설계에 이상적이며, 더 크고 빠른 HBM3e 메모리와 최대 4개의 GPU를 위한 NVIDIA NVLink™ 연결을 통해 주류 엔터프라이즈 서버의 AI 가속을 지원합니다. 이전 세대 GPU보다 1.5배 향상된 메모리와 1.2배 향상된 대역폭을 갖춘 H200 NVL은 몇 시간 내에 LLM을 미세 조정하고 최대 1.8배 빠른 LLM 추론 성능을 제공합니다.

사양

NVIDIA H200 Tensor 코어 GPU

폼팩터 H200 SXM1 H200 NVL1
FP6434 TFLOPS30 TFLOPS
FP64 Tensor 코어67 TFLOPS60 TFLOPS
FP3267 TFLOPS60 TFLOPS
TF32 Tensor 코어2989 TFLOPS835 TFLOPS
BFLOAT16 Tensor 코어21,979 TFLOPS1,671 TFLOPS
FP16 Tensor 코어21,979 TFLOPS1,671 TFLOPS
FP8 Tensor 코어23,958 TFLOPS3,341 TFLOPS
INT8 Tensor 코어23,958 TFLOPS3,341 TFLOPS
GPU 메모리141GB141GB
GPU 메모리 대역폭4.8TB/s4.8TB/s
디코더7 NVDEC / PEG7 NVDEC / 7 JPEG
컨피덴셜 컴퓨팅지원지원됨
최대 열 설계 전력(TDP)최대 700W(구성 가능)최대 600W(구성 가능)
멀티 인스턴스 GPU(MIG)최대 7개의 MIG, 각 18GB각각 최대 7개의 MIGs @16.5GB
폼 팩터SXMPCIe 듀얼 슬롯(공랭식)
인터커넥트NVIDIA NVLink™: 900GB/s
PCIe Gen5: 128GB/s
2방향 또는 4방향 NVIDIA NVLink 브리지:
GPU당 900GB/s
PCIe Gen5: 128GB/s
서버 옵션GPU가 4개 또는 8개의 NVIDIA HGX™ H200 파트너 및 NVIDIA-Certified System™NVIDIA MGX™ H200 NVL 파트너 및 최대 8개 GPU를 갖춘 NVIDIA 인증 시스템
NVIDIA AI Enterprise추가 가능포함 항목

1. 예비 사양으로 변경될 수 있습니다.
2. 텐서성 포함

NVIDIA H100 NVL

대규모 언어 모델 추론을 강화

DGX Spark

NVIDIA H100 NVL은 주류 PCIe 기반 서버 시스템에서 대용량 언어 모델 추론을 강화합니다. 향상된 기본 성능, 더 크고 빠른 HBM3 메모리, 그리고 브리지를 통한 NVIDIA NVLink™ 연결을 통해 H100 NVL을 탑재한 주류 시스템은 Llama 2 70B에서 NVIDIA A100 Tensor Core 시스템보다 최대 5배 높은 성능을 발휘합니다.

사양

NVIDIA H100 Tensor 코어 GPU

폼팩터 H100 SXM1 H100 NVL1
FP6434 TFLOPS30 TFLOPS
FP64 Tensor 코어67 TFLOPS60 TFLOPS
FP3267 TFLOPS60 TFLOPS
TF32 Tensor 코어2989 TFLOPS835 TFLOPS
BFLOAT16 Tensor 코어21,979 TFLOPS1,671 TFLOPS
FP16 Tensor 코어21,979 TFLOPS1,671 TFLOPS
FP8 Tensor 코어23,958 TFLOPS3,341 TFLOPS
INT8 Tensor 코어23,958 TOPS3,341 TOPS
GPU 메모리80GB94GB
GPU 메모리 대역폭3.35TB/s3.9TB/s
디코더7 NVDEC / 7 JPEG7 NVDEC / 7 JPEG
컨피덴셜 컴퓨팅지원지원됨
최대 열 설계 전력(TDP)최대 700W(구성 가능)350~400W(구성 가능)
멀티 인스턴스 GPU(MIG)최대 7개의 MIG, 각 10GB최대 7개의 MIG, 각 12GB
폼 팩터SXMPCIe 듀얼 슬롯(공랭식)
인터커넥트NVIDIA NVLink™: 900GB/s
PCIe Gen5: 128GB/s
NVIDIA NVLink: 600GB/s
PCIe Gen5: 128GB/s
서버 옵션GPU가 4개 또는 8개의 NVIDIA HGX H100 파트너 및 NVIDIA-Certified Systems™ GPU가 8개인 NVIDIA DGX H100GPU가 1~8개인 파트너 인증 시스템 및 NVIDIA-Certified System™
NVIDIA AI Enterprise추가 가능포함 항목

* 최소성 포함
1. 예비 사양으로 변경될 수 있습니다.

NVIDIA L40s

데이터센터를 위한 독보적인 AI 및 그래픽 성능

DGX Spark

생성적 AI의 폭발적인 성장은 모든 산업 분야에 걸쳐 혁신적인 변화를 주도하고 있으며, 기업들은 더 많은 컴퓨팅 리소스를 대규모로 구축해야 할 필요성을 느끼고 있습니다. 성능, 효율성, 그리고 ROI 향상에 대한 압박이 거세지면서, 현대 데이터 센터는 끊임없이 증가하는 복잡하고 다양한 워크로드에 대해 가속화된 컴퓨팅, 그래픽 및 비디오 처리 기능을 제공하는 범용 컴퓨팅 솔루션을 필요로 합니다. Ada Lovelace 아키텍처 기반의 NVIDIA L40S GPU는 데이터 센터를 위한 가장 강력한 범용 GPU로, LLM 추론 및 학습, 그래픽 및 비디오 애플리케이션에 획기적인 다중 워크로드 가속을 제공합니다. 멀티모달 생성적 AI를 위한 최고의 플랫폼인 L40S GPU는 추론, 학습, 그래픽 및 비디오 워크플로에 대한 엔드 투 엔드 가속을 제공하여 차세대 AI 지원 오디오, 음성, 2D, 비디오 및 3D 애플리케이션을 구동합니다.

사양

NVIDIA H100 Tensor 코어 GPU

FP3291.6테라플롭스
TF32 Tensor 코어366테라플롭스*
FP16733테라플롭스*
FP81,466테라플롭스*
RT 코어 성능212테라플롭스
최대 소비 전력350W

* 최소성 포함

NVIDIA L40

데이터 센터 워크로드를 위한 강력한 시각 컴퓨팅, AI 및 신경 그래픽

DGX Spark

가상 워크스테이션부터 대규모 모델링 및 시뮬레이션에 이르기까지, 최신 시각 컴퓨팅 및 과학 애플리케이션은 복잡성과 양적으로 증가하고 있습니다. 기업은 점점 더 복잡해지는 워크로드의 다양한 컴퓨팅 요구를 충족하기 위해 극한의 성능과 확장성을 제공하면서도 다재다능한 기능을 갖춘 데이터 센터 솔루션을 필요로 합니다. NVIDIA Ada Lovelace GPU 아키텍처 기반의 NVIDIA L40 GPU는 데이터 센터에 전례 없는 시각 컴퓨팅 성능을 제공하고, 혁신적인 신경망 그래픽, 컴퓨팅 및 AI 기능을 제공하여 가장 까다로운 시각 컴퓨팅 워크로드를 가속화합니다. L40은 실시간 레이 트레이싱 기능을 향상시키는 142개의 3세대 RT 코어와 FP8 데이터 형식을 지원하는 568개의 4세대 텐서 코어를 탑재하여 1페타플롭 이상의 추론 성능을 제공합니다. 이러한 새로운 기능은 최신 CUDA® 코어 및 48GB 그래픽 메모리와 결합되어 고성능 가상 워크스테이션 인스턴스부터 NVIDIA Omniverse™의 대규모 디지털 트윈에 이르기까지 시각 컴퓨팅 워크로드를 가속화합니다. 동일한 전력으로 이전 세대보다 최대 2배 향상된 성능을 제공하는 NVIDIA L40은 현대 데이터 센터에 필요한 시각적 컴퓨팅 성능과 성능을 제공하는 데 독보적으로 적합합니다.

L40s 주요 특징

데이터센터 성능을 위한 3가지 핵심

차세대 그래픽

차세대 그래픽

NVIDIA L40은 데이터센터의 비주얼 컴퓨팅 워크로드를 위해 최고 수준의 렌더 성능을 제공합니다. 3세대 RT 코어 및 업계 최고의 GDDR6 메모리 48GB는 이제 실시간 레이 트레이싱 성능을 지원하며, 고성능 크리에이티브 워크플로우를 가속화합니다.

강력한 컴퓨팅 및 AI

강력한 컴퓨팅 및 AI

NVIDIA L40에는 추론, 추론 전처리, 데이터 사이언스 및 그래픽 애플리케이션을 위한 최신 4세대 Tensor 코어가 탑재되어 AI 기능을 지원합니다. 복잡한 컴퓨팅 워크로드에 필수적인 성능을 제공합니다.

데이터센터 지원

데이터센터 지원

NVIDIA L40은 연중무휴 운영되는 엔터프라이즈 데이터센터를 위한 고신뢰성 설계로, 듀얼 슬롯 전력 효율 최적화 디자인에 패키지된 고성능 워크로드용 솔루션입니다. 다양한 NVIDIA-Certified Systems™에서 제공됩니다.

사양

NVIDIA L40 GPU

GPU 아키텍처NVIDIA Ada Lovelace 아키텍처
GPU 메모리48GB GDDR6(ECC 포함)
디스플레이 커넥터DP 1.4a 4개
최대 소비 전력300W
폼 팩터4.4”(H) x 10.5”(L) 듀얼 슬롯
열처리수동
vGPU 소프트웨어 지원*NVIDIA vPC/vApp
NVIDIA RTX 가상 워크스테이션(WKS)
NVENC | NVDEC3x | 3x (AV1 인코딩 및 디코딩 포함)
RoT(Root of Trust)를 통한 안전한 부팅YES
NEBS 지원YES / 레벨 3
전원 커넥터PCIe CEM5 16핀 1개

NVIDIA L4 Tensor Core GPU

효율적인 비디오, AI, 그래픽을 위한 획기적인 가속기

DGX Spark

NVIDIA L4 Tensor Core GPU는 기업, 클라우드 및 엣지 환경에서 비디오, AI, 가상 워크스테이션 및 그래픽 애플리케이션에 대한 범용 가속 및 에너지 효율성을 제공합니다. NVIDIA의 AI 플랫폼과 풀스택 접근 방식을 통해 L4는 광범위한 AI 애플리케이션에서 대규모 비디오 및 추론에 최적화되어 최상의 개인화된 경험을 제공합니다. 주류 시장에서 가장 효율적인 NVIDIA 가속기인 L4가 탑재된 서버는 CPU 솔루션보다 최대 120배 더 높은 AI 비디오 성능을 제공하는 동시에 이전 세대 대비 2.5배 더 향상된 생성적 AI 성능과 4배 이상 향상된 그래픽 성능을 제공합니다. L4의 다재다능함과 에너지 효율적인 단일 슬롯, 로우 프로파일 폼팩터는 엣지, 클라우드 및 엔터프라이즈 환경에 이상적입니다.

사양

NVIDIA L4 GPU

폼 팩터L4
FP3230.3테라플롭스
TF32 Tensor 코어120테라플롭스*
FP16 Tensor 코어242테라플롭스*
BFLOAT16 Tensor 코어242테라플롭스*
FP8 Tensor 코어485테라플롭스*
INT8 Tensor 코어톱 485개*
GPU 메모리24기가바이트
GPU 메모리 대역폭300GB/초
엔비엔씨 | NVDEC | JPEG 디코더2 | 4 | 4
최대 열 설계 전력(TDP)72와트
폼 팩터1슬롯 로우 프로파일, PCIe
인터커넥트PCIe Gen4 ×16 64GB/초
서버 옵션1~8개의 GPU를 갖춘 파트너 및 NVIDIA-Certified 시스템

* 최소성으로 표시됩니다. 사양은 최소성 없이 1/2 더 낮습니다.