NVIDIA于美國當地時間20日宣布NVIDIA H100 Tensor Core GPU全面投產,NVIDIA全球技術合作伙伴計劃于10月推出首批基于開創性NVIDIA Hopper™架構的產品和服務。
H100于2022年4月發布,由800億個晶體管組成,并采用了眾多開創性的技術,包括強大的全新Transformer引擎和NVIDIA NVLink®互連技術,以加速最大規模的AI模型,如高級推薦系統和大型語言模型,并推動對話式AI和藥物發現等領域的創新。。
NVIDIA創始人兼首席執行官黃仁勛表示:“Hopper是AI工廠的全新引擎。它能夠處理和挖掘海量數據,訓練具有數萬億參數的模型,這些模型將推動基于語言的AI、機器人、醫療和生命科學領域的進步。Hopper的Transformer引擎將性能提升了一個數量級,使大規模AI和HPC能夠為企業和研究人員所用。”
除了Hopper的架構和Transformer引擎之外,第二代多實例GPU、機密計算、第四代NVIDIA NVLink和DPX 指令等若干關鍵性創新也讓H100 GPU如虎添翼,實現了NVIDIA加速計算數據中心平臺的又一次飛躍。
用于主流服務器的H100現包含為期五年的NVIDIA AI Enterprise軟件套件許可。這將優化AI工作流程的開發和部署,確保用戶能夠獲得構建AI聊天機器人、推薦引擎、視覺AI等所需的AI框架和工具。
Hopper的全球推廣
H100使企業能夠削減AI的部署成本,相較于上一代,在提供相同AI性能的情況下,可將能效提高3.5倍,總體擁有成本減少至1/3,所使用的服務器節點數也減少至1/5。
對于有意立即嘗試這項新技術的客戶,NVIDIA已宣布戴爾PowerEdge服務器上的H100現可在NVIDIA LaunchPad上使用。NVIDIA LaunchPad為企業提供免費的動手實操實驗室,讓企業能夠接觸到最新的硬件和NVIDIA AI軟件。
NVIDIA DGX™ H100系統現在也已開始接受客戶預定。該系統包含8個H100 GPU,FP8精度的峰值性能達到32 PFlops。每個DGX系統都包含NVIDIA Base Command™和NVIDIA AI Enterprise軟件,可實現從單一節點到NVIDIA DGX SuperPOD™的集群部署,為大型語言模型和其他大規模工作負載的高級AI開發工作提供支持。
全球領先的計算機制造商所提供的搭載H100的系統預計將在未來幾周內發貨,到今年年底將有超過50款服務器型號面市,2023年上半年還將有數十款型號面市。已在構建系統的合作伙伴包括源訊(Atos)、思科、戴爾科技、富士通、技嘉科技、慧與、聯想和超微。
此外,數家全球領先的高等教育和研究機構的新一代超級計算機也將采用H100。其中包括巴塞羅那超級計算中心、洛斯阿拉莫斯國家實驗室、瑞士國家超級計算中心(CSCS)、德州高級計算中心和筑波大學。
H100走向云端
AWS、谷歌云、Microsoft Azure、Oracle Cloud Infrastructure將從明年開始率先在云端部署基于H100的實例。
Microsoft Azure AI基礎設施總經理Nidhi Chappell表示:“我們期待著在Microsoft Azure的最新H100 GPU上實現下一代AI模型。借助Hopper架構的進步,加之我們在Azure AI超級計算方面的投資,我們將能夠助力加速全球AI的發展。”
Oracle Cloud Infrastructure產品管理副總裁Karan Batta表示:“我們通過為客戶提供NVIDIA最新的H100 GPU,幫助他們加速最為復雜的機器學習和HPC工作負載。另外,憑借NVIDIA的新一代H100 GPU,我們能夠為內部要求嚴苛的工作負載提供支持,并助力我們共同的客戶在醫療、自動駕駛汽車、機器人和物聯網領域取得突破。”
NVIDIA的軟件支持
H100先進的Transformer引擎技術可助力企業快速開發精度更高的大型語言模型。隨著這些模型的規模不斷擴大,其復雜性也在不斷提升,有些模型的訓練時間甚至長達數月。
為解決這一問題,一些全球領先的大型語言模型和深度學習框架正在H100上進行優化,包括NVIDIA NeMo Megatron、Microsoft DeepSpeed、Google JAX、PyTorch、TensorFlow和XLA。這些框架與Hopper架構相結合,能夠顯著提升AI性能,將大型語言模型的訓練時間縮短到幾天乃至幾小時。
【來源:集微網】