7% CASHBACK AUF RAKUTEN: NUR BIS 18. JUNI 16:00 (JST) DETAILS
AUS JAPAN ZU DIR! LERNE UNSERE KUNDEN KENNNEN INFO

NVIDIA NVH100-80G グラフィックボード

$36,758.89 USD ¥5,555,500
sake-premoa_2980000404801
0 out of 5
Versand innerhalb Japans: Kostenlos
Artikelzustand: Neuer Artikel
Verfügbarkeit: Ja
NVIDIA NVH100-80G グラフィックボード

Diese Artikelseite auf Yahoo
Eine Frage zu diesem Artikel stellen Missbrauch melden
Wie viel kostet ZenMarket?
g
Die Gewichtsgrenze des Pakets istkg
Bitte beachten Sie, dass die Beschreibung automatisch übersetzt wird. ZenMarket ist nicht für den Inhalt der Beschreibung verantwortlich. Wenn Sie Fragen zu diesem Artikel haben, kontaktieren Sie uns gerne.

商品特長・スペック


★ アクセラレーテッド コンピューティングの大きな飛躍
NVIDIA H100 Tensor コア GPU で、あらゆるワークロードのためのかつてない性能、拡張性、セキュリティを手に入れましょう。
NVIDIA NVLink Switch System により、最大 256 個のH100を接続し、エクサスケールのワークロードを高速化できます。
さらに、専用の Transformer Engine を利用することで、パラメーターが兆単位の言語モデルを実装できます。H100の複合的な技術革新により、
大規模な言語モデルが前世代と比較して30倍も高速化され、業界の一歩先を行く対話型AIが可能となります。

★ 大規模言語モデル推論を加速
最大1750億 パラメーターの大規模言語モデル (LLM) の場合、PCIe ベースの H100 NVL with NVLink ブリッジは、Transformer Engine、NVLink、
および 188GB HBM3 メモリを利用して、あらゆるデータ センターで最適な性能と容易な拡張性を提供し、LLM を主流にしています。
H100 NVL GPU を搭載したサーバーは、電力制約のあるデータ センター環境において低遅延を維持しながら、GPT-175B モデルの性能を NVIDIA DGX A100 システムの最大 12 倍まで向上します。

★ NVIDIA AI Enterprise
標準サーバー向けの H100 には、NVIDIA AI Enterprise ソフトウェア スイートのサブスクリプション5年分 (エンタープライズ サポートなど) が付属しており、その非常に優れた性能によって AI を簡単に導入できます。
それにより、企業や組織は、AI チャットボット、レコメンデーション エンジン、ビジョン AI など、H100 で高速化する AI ワークフローを構築するために必要な AI フレームワークおよびツールが活用できるようになります。

* アーキテクチャ:Hopper
* GPUメモリー:80GB HBM2e
* メモリー帯域:2TB/s
* エラー修正コード(ECC):Yes
* FP64:26TFLOPS
* FP64 Tensor Core:51TFLOPS
* FP32:51TFLOPS
* TF32 Tensor Core:756TFOLPS
* BFLOAT16 Tensor core:1513 TFLOPS
* FP16 Tensor Core:1513 TFLOPS
* FP8 Tensor Core:3026 TFLOPS
* INT8 Tensor Core:3026 TFLOPS
* デコーダー…
・7 x NVDEC
・7 x JPEG
* インターコネクト…
・PCIe5.0 128GB/s
・NVLink: 600GB/s
* 消費電力(TDP):300-350W
* 冷却機構:パッシブ
* フォームファクタ…
・267.7 x 111
・ Dual Slot
* マルチインスタンスGPU(MIG):10GBのMIGが最大7つ

ラッピングをご希望の方は
ラッピング券をお買い求め下さい。
詳細

商品特長・スペック

★ アクセラレーテッド コンピューティングの大きな飛躍
NVIDIA H100 Tensor コア GPU で、あらゆるワークロードのためのかつてない性能、拡張性、セキュリティを手に入れましょう。
NVIDIA NVLink Switch System により、最大 256 個のH100を接続し、エクサスケールのワークロードを高速化できます。
さらに、専用の Transformer Engine を利用することで、パラメーターが兆単位の言語モデルを実装できます。H100の複合的な技術革新により、
大規模な言語モデルが前世代と比較して30倍も高速化され、業界の一歩先を行く対話型AIが可能となります。

★ 大規模言語モデル推論を加速
最大1750億 パラメーターの大規模言語モデル (LLM) の場合、PCIe ベースの H100 NVL with NVLink ブリッジは、Transformer Engine、NVLink、
および 188GB HBM3 メモリを利用して、あらゆるデータ センターで最適な性能と容易な拡張性を提供し、LLM を主流にしています。
H100 NVL GPU を搭載したサーバーは、電力制約のあるデータ センター環境において低遅延を維持しながら、GPT-175B モデルの性能を NVIDIA DGX A100 システムの最大 12 倍まで向上します。

★ NVIDIA AI Enterprise
標準サーバー向けの H100 には、NVIDIA AI Enterprise ソフトウェア スイートのサブスクリプション5年分 (エンタープライズ サポートなど) が付属しており、その非常に優れた性能によって AI を簡単に導入できます。
それにより、企業や組織は、AI チャットボット、レコメンデーション エンジン、ビジョン AI など、H100 で高速化する AI ワークフローを構築するために必要な AI フレームワークおよびツールが活用できるようになります。

* アーキテクチャ:Hopper
* GPUメモリー:80GB HBM2e
* メモリー帯域:2TB/s
* エラー修正コード(ECC):Yes
* FP64:26TFLOPS
* FP64 Tensor Core:51TFLOPS
* FP32:51TFLOPS
* TF32 Tensor Core:756TFOLPS
* BFLOAT16 Tensor core:1513 TFLOPS
* FP16 Tensor Core:1513 TFLOPS
* FP8 Tensor Core:3026 TFLOPS
* INT8 Tensor Core:3026 TFLOPS
* デコーダー…
・7 x NVDEC
・7 x JPEG
* インターコネクト…
・PCIe5.0 128GB/s
・NVLink: 600GB/s
* 消費電力(TDP):300-350W
* 冷却機構:パッシブ
* フォームファクタ…
・267.7 x 111
・ Dual Slot
* マルチインスタンスGPU(MIG):10GBのMIGが最大7つ