Lütfen daha iyi hizmet deneyimi ve siparişlerinizi görmek için oturum açın veya kaydolun.
Arama barımızdan bir kategori veya mağaza seçerek ürünlerinizi arayabilirsiniz. Aynı zamanda orijinal ürün sayfasının linkini yapıştırabilirsiniz. Aradığınızı bulamıyor musunuz? Ürününüz hakkındaki detayları bizimle paylaşın ve sizin için arayalım!
★ アクセラレーテッド コンピューティングの大きな飛躍NVIDIA H100 Tensor コア GPU で、あらゆるワークロードのためのかつてない性能、拡張性、セキュリティを手に入れましょう。NVIDIA NVLink Switch System により、最大 256 個のH100を接続し、エクサスケールのワークロードを高速化できます。さらに、専用の Transformer Engine を利用することで、パラメーターが兆単位の言語モデルを実装できます。H100の複合的な技術革新により、大規模な言語モデルが前世代と比較して30倍も高速化され、業界の一歩先を行く対話型AIが可能となります。★ 大規模言語モデル推論を加速最大1750億 パラメーターの大規模言語モデル (LLM) の場合、PCIe ベースの H100 NVL with NVLink ブリッジは、Transformer Engine、NVLink、および 188GB HBM3 メモリを利用して、あらゆるデータ センターで最適な性能と容易な拡張性を提供し、LLM を主流にしています。H100 NVL GPU を搭載したサーバーは、電力制約のあるデータ センター環境において低遅延を維持しながら、GPT-175B モデルの性能を NVIDIA DGX A100 システムの最大 12 倍まで向上します。★ NVIDIA AI Enterprise標準サーバー向けの H100 には、NVIDIA AI Enterprise ソフトウェア スイートのサブスクリプション5年分 (エンタープライズ サポートなど) が付属しており、その非常に優れた性能によって AI を簡単に導入できます。それにより、企業や組織は、AI チャットボット、レコメンデーション エンジン、ビジョン AI など、H100 で高速化する AI ワークフローを構築するために必要な AI フレームワークおよびツールが活用できるようになります。* アーキテクチャ:Hopper* GPUメモリー:80GB HBM2e* メモリー帯域:2TB/s* エラー修正コード(ECC):Yes* FP64:26TFLOPS* FP64 Tensor Core:51TFLOPS* FP32:51TFLOPS* TF32 Tensor Core:756TFOLPS* BFLOAT16 Tensor core:1513 TFLOPS* FP16 Tensor Core:1513 TFLOPS* FP8 Tensor Core:3026 TFLOPS* INT8 Tensor Core:3026 TFLOPS* デコーダー…・7 x NVDEC・7 x JPEG* インターコネクト…・PCIe5.0 128GB/s・NVLink: 600GB/s* 消費電力(TDP):300-350W* 冷却機構:パッシブ* フォームファクタ…・267.7 x 111・ Dual Slot* マルチインスタンスGPU(MIG):10GBのMIGが最大7つ