1/10ページ
ダウンロード(749.1Kb)
NVIDIA DGX A100 ご紹介
ご提案サイトは、こちら https://DGXA100.sfsite.me/
NVIDIA DGX™ A100 は、あらゆる AI ワークフローに対応するユニバーサル システムで、前例のない計算処理密度、パフォーマンス、柔軟性を提供する世界初の 5 ペタフロップス AI システムです。DGX A100 は NVIDIA A100 Tensor コア GPU を備えており、企業はトレーニング、推論、分析を、展開を簡単にでき、NVIDIA AI エキスパートへの直接アクセスが含まれる AI インフラストラクチャに統合できます。
このカタログについて
ドキュメント名 | アプライド NVIDIA DGX A100 ご紹介 |
---|---|
ドキュメント種別 | 製品カタログ |
ファイルサイズ | 749.1Kb |
登録カテゴリ | |
取り扱い企業 | アプライド株式会社 (この企業の取り扱いカタログ一覧) |
この企業の関連カタログ
このカタログの内容
Page1
1
Page2
NVIDIA Partner Network(NPN)に認定されました
アプライド株式会社は、NVIDIA社のパートナープログラムである
NVIDIAパートナーネットワークにソリューションプロバイダーとして参
画したことを発表します。
当社はソリューションプロバイダーとして、テクノロジーの専門知識と
サービスを組み合わせて付加価値を高め、お客様の求めるビジネスおよ
び技術の要件を満たす NVIDIA GPU コンピューティングソリューション
を設計、再販、導入までのご提供を開始いたします。
NVIDIA DGX A100 で構築された世界初の AI システム
NVIDIA DGX™ A100 は、あらゆる AI ワークフローに対応するユニバーサルシステムで、前
例のない計算処理密度、パフォーマンス、柔軟性を提供する世界初の 5 ペタフロップス AI シ
ステムです。DGX A100 は NVIDIA A100 Tensor コア GPU を備えており、企業はトレーニ
ング、推論、分析を、展開を簡単にでき、NVIDIA AI エキスパートへの直接アクセスが含ま
れる AI インフラストラクチャに統合できます。
Page3
DGX A100 ラインナップ
・320GBモデル(NVIDIA A100 Tensor Core GPU 40GB × 8 基搭載)
・640GBモデル(NVIDIA A100 Tensor Core GPU 80GB × 8 基搭載)
NVIDIA DGX A100 特 徴
3
Page4
NVIDIA A100 Tensor Core GPU × 8基 10 Mellanox ConnectX-6
01 合計320 GBのGPUメモリ、12 NVLinks / GPU、600 GB 03 200/Gb ネットワークインターフェイス
/ s GPU-to-GPU双方向帯域幅 ピーク時の双方向の帯域幅: 500 GB/秒
6 基の NVIDIA NVSWITCH デュアル AMD Rome CPU
02 04 2 基の 64 コア AMD CPU と 2 TB システムメモリ
双方向の帯域幅: 4.8 TB/秒前世代と比較して 2 倍
3.2 倍のコアで負荷の高い AI ジョブに対応
30TB GEN4 NVME SSD
05 50GB/秒のピーク帯域幅、2 倍速 Gen3
NVME SSD
Page5
NVIDIA A100 Tensor コア GPU
NVIDIA A100 Tensor コア GPU による前例のない高速化をもって
、世界で最も困難な計算に AI、データ分析、HPC (ハイパフォー
マンスコンピューティング) で挑むことができます。第 3 世代の
NVIDIA Tensor コアにより性能を大幅に向上できるようになり、
A100 GPU を効率的に数千までスケールアップできます。また、
マルチインスタンス GPU を使用すれば、あらゆるサイズのワーク
フローを加速するために 7 つの小さな専用インスタンスとして割
り当てることができます。
マルチインスタンス GPU (MIG)
MIG を利用することで、DGX A100 の 8 つの A100 Gpu を最大 56
個の GPU インスタンスとして構成し、それぞれが独自の高帯域幅
メモリ、キャッシュ、コンピューティングコアで完全分離できま
す。これにより管理者は、複数のワークフローに対してサービス
品質 (QoS) が保証された GPU のサイズを適切に設定することがで
きます。
5
Page6
次世代 NVLink と NVSwitch
DGX A100 の第 3 世代の NVIDIA® NVLink™は、GPU から GPU
への直接帯域幅を 600 ギガバイト/秒 (GB/s) まで倍増します。これ
は PCIe Gen4 のほぼ 10 倍に相当します。DGX A100 には、前世
代と比較して 2 倍の速度を可能にする次世代の NVIDIA
NVSwitch™も搭載されています。
NVIDIA ConnectX-7 毎秒 200Gb
InfiniBand/Ethernet
DGX A100 は NVIDIA ConnectX-7 InfiniBand と VPI (Infiniband ま
たは Ethernet) アダプターを備え、それぞれが毎秒 200 ギガビット
(Gb/s) で実行され、大規模 AI ワークロードのために高速ファブリ
ックを構築します。
6
Page7
最適化されたソフトウェアスタック
DGX A100 には、AI チューニングされた基本オペレーティングシ
ステム、必要となるすべてのシステムソフトウェア、GPU 対応ア
プリケーション、トレーニング済みモデル、NGC™の各種機能な
ど、テスト済みで最適化された DGX ソフトウェアスタックが統
合されています。
組み込まれたセキュリティ
DGX A100 は、あらゆる主要なハードウェアとソフトウェアコン
ポーネントを保護するための自動暗号化ドライブ、署名付きソフ
トウェアコンテナー、安全な管理と監視といったマルチレイヤー
アプローチを採用することで、AI 導入において最も信頼性の高い
セキュリティ体制を実現します。
7
Page8
AI データセンターに欠かせないビルディングブロック
すべてのAIワークロードに対応するユニバーサルシステム
NVIDIA DGX A100は、分析からトレーニング、推論まで、すべてのAIインフラストラクチャのユニバーサルシステムです。
コンピューティング密度の新たな基準を設定し、5ペタフロップスのAIパフォーマンスを6Uフォームファクターにパッキング
し、従来のインフラストラクチャサイロをすべてのAIワークロード用の1つのプラットフォームに置き換えます。
DGXperts: AI の専門知識への統合的アクセス
NVIDIA DGXperts は、お客様による DGX 投資への価値を最大化できるよう過去 10 年間にわたり豊富な経験を積んできた
、20,000 人を超える AI に精通した専門家から成る世界的なチームです。
最速での解決
NVIDIA DGX A100 は、NVIDIA A100 Tensor コア GPU をベースに開発された世界初の AI システムです。320GB と 640GB
の GPU メモリオプションを持つ 8 基の A100 GPU を統合したこのシステムは、かつてないほどの高速化を実現し、
NVIDIA CUDA-X™ソフトウェアとエンドツーエンドの NVIDIA データセンターソリューションスタック用に完全に最適化
されています。
比類ないデータセンターの拡張性
NVIDIA DGX A100 は、ピーク時の双方向帯域幅が 500 ギガバイト/秒 (GB/s) の Mellanox ネットワーキングを内蔵しています。これ
は、スケーラブル AI インフラストラクチャのリファレンスアーキテクチャとなるNVIDIA DGX SuperPOD™などの大規模 AI クラス
ターの基本構成要素に DGX A100 を据えるための数ある機能の中の 1 つです。
8
Page9
NVIDIA DGX A100 スペック
DGX A100 640GB DGX A100 320GB
NVIDIA A100 Tensor Core NVIDIA A100 Tensor Core
GPU
80 GB × 8基 40 GB × 8基
GPUメモリ Total 640 GB Total 320 GB
AI で 5 petaFLOPS
パフォーマンス
INT8 で 10 petaOPS
NVIDIA NVSwitches 6
Dual AMD Rome 7742
CPU
2.25 GHz(ベース),3.4GHz(最大ブースト)
システムメモリ 2 TB 1 TB
ネットワーク シングルポート シングルポート
Mellanox ConnectX-6 Mellanox ConnectX-6
VPI VPI×8
200Gb/s HDR 200Gb/s HDR
InfiniBand × 8 InfiniBand
デュアルポート デュアルポート
Mellanox ConnectX-6 Mellanox ConnectX-6
VPI VPI
10/25/50/100/200 Gb/s Ethernet × 2 10/25/50/100/200 Gb/s Ethernet
ストレージ OS: 1.92 TB M.2 NVME drives × 2 OS: 1.92 TB M.2 NVME drives × 2
内部ストレージ:30 TB (3.84 TB × 8) 内部ストレージ:15TB (3.84 TB × 4)
U.2 NVME drives U.2 NVME drives
ソフトウェア Ubuntu Linux OS
Red Hat Enterprise Linux
CentOS
最大消費電力 6.5 kW max
重量 1 23 kg
サイズ 全高: 264.0 mm
全幅: 482.3 mm
奥行: 897.1 mm
運用温度範囲 5 ℃ - 30 ℃
9
Page10
NVIDIA Partner Network(NPN)に認定されました
アプライド株式会社は、NVIDIA社のパートナープログラムである
NVIDIAパートナーネットワークにソリューションプロバイダーとして参
画したことを発表します。
当社はソリューションプロバイダーとして、テクノロジーの専門知識と
サービスを組み合わせて付加価値を高め、お客様の求めるビジネスおよ
び技術の要件を満たす NVIDIA GPU コンピューティングソリューション
を設計、再販、導入までのご提供を開始いたします。
プライバシーポリシー お問い合わせ 会社概要
APPLIED
10