NVIDIA A100
產品概況
加速當今最重要的工作
NVIDIA A100 Tensor Core GPU 可針對 AI、數據分析和高性能計算 (HPC),在各種規模上實現出色的加速,應對極其嚴峻的計算挑戰。作為 NVIDIA 數據中心平臺的引擎,A100 可以高效擴展,系統中可以集成數千個 A100 GPU,也可以利用 NVIDIA 多實例 GPU (MIG) 技術將每個 A100 劃分割為七個獨立的 GPU 實例,以加速各種規模的工作負載。第三代 Tensor Core 技術為各種工作負載的更多精度水平提供加速支持,縮短獲取洞見以及產品上市時間。
產品特點
深度學習訓練
 
    當今的 AI 模型需要應對精準對話式 AI 和深度推薦系統等新型挑戰,這促使其復雜度呈爆炸式增長。訓練這些模型需要大規模的計算能力和可擴展性。
NVIDIA A100 的第三代 Tensor Core 借助 Tensor 浮點運算 (TF32) 精度,可提供比上一代高 10 倍之多的性能,并且無需更改代碼,更能通過自動混合精度將性能進一步提升兩倍。與第三代 NVIDIA® NVLink®、NVIDIA NVSwitch™、PCIe 4.0、Mellanox 和 Magnum IO 軟件 SDK 結合使用時,系統中可以集成數千個 A100 GPU。這意味著,BERT 等大型 AI 模型只需在 A100 構成的集群上進行訓練幾十分鐘,從而提供出色的性能和可擴展性。
 
NVIDIA 在深度學習訓練方面的領先地位在  MLPerf 0.6 中得到了證明,這是 AI 訓練的第一項行業級基準測試。

高性能計算
 
    為了點燃下一代新發現的火花,科學家們希望通過模擬更好地理解復雜分子結構以支持藥物發現,通過模擬物理效果尋找潛在的新能源,通過模擬大氣數據更好地預測極端天氣狀況并為其做準備。
A100 引入了雙精度 Tensor Cores, 繼用于 HPC 的 GPU 雙精度計算技術推出至今,這是非常重要的里程碑。利用 A100,原本在 NVIDIA V100 Tensor Core GPU 上需要 10 小時的雙精度模擬作業如今只要 4 小時就能完成。HPC 應用還可以利用 A100 的 Tensor Core,將單精度矩陣乘法運算的吞吐量提高 10 倍之多。

數據分析
 
    客戶需要能夠分析和可視化龐大的數據集,并將其轉化為寶貴洞見。但是,由于這些數據集分散在多臺服務器上,橫向擴展解決方案往往會陷入困境。
搭載 A100 的加速服務器可以提供必要的計算能力,并利用第三代 NVLink 和 NVSwitch 1.6TB/s 的顯存帶寬和可擴展性,妥善應對這些龐大的工作負載。結合 Mellanox InfiniBand、Magnum IO SDK、GPU 加速的 Spark 3.0 和  NVIDIA RAPIDS™ NVIDIA 數據中心平臺能夠以出色的性能和效率加速這些大規模工作負載。
 
企業級利用率
 
    A100 的 多實例 GPU (MIG) 功能使 GPU 加速的基礎架構利用率大幅提升,達到前所未有的水平。MIG 支持將 A100 GPU 安全分割到多達七個獨立實例中,這些 A100 GPU 實例可供多名用戶使用,以加速應用和開發項目。此外,數據中心管理員可以利用基于虛擬化技術帶來的管理、監控和操作方面的優勢,發揮 NVIDIA 虛擬計算服務器 ( vComputeServer) 的動態遷移和多租戶功能。A100 的 MIG 功能可以使基礎架構管理員對其 GPU 加速的基礎架構作標準化處理,同時以更精確的粒度提供 GPU 資源,從而為開發者提供正確的加速計算量,并確保其所有 GPU 資源得到充分利用。


 

技術參數
QQ
返回頂部