8月8日晚,英偉達創(chuàng)始人兼CEO黃仁勛在計算機圖形界頂級會議SIGGRAPH上發(fā)表主題演講,并且宣布推出新一代GH200 Grace Hopper超級芯片及相應(yīng)平臺。
黃仁勛在演講中甚至說到,“生成式 AI 時代和 AI 的 iphone 時刻已經(jīng)到來”。
那么英偉達這次帶來的新品到底有多強呢?
新一代的GH200 Grace Hopper平臺是專為處理大語言模型、推薦系統(tǒng)、矢量數(shù)據(jù)庫等全球最復(fù)雜的生成式 AI 工作負載而構(gòu)建。
平臺采用雙配置,提供的內(nèi)存容量和帶寬比當前產(chǎn)品分別增加 3.5 倍和 3 倍,包括一個擁有 144 個 Arm Neoverse 內(nèi)核、8 petaflops 的 AI 性能和 282GB 最新 HBM3e 內(nèi)存技術(shù)的單個服務(wù)器。新平臺可以通過 Nvidia NVLink™ 與其他超級芯片連接,從而實現(xiàn)協(xié)同工作,部署當下大型生成式 AI 模型。該技術(shù)使 GPU 可以完全訪問 CPU 內(nèi)存,在雙配置中可提供總計 1.2TB 的快速內(nèi)存。黃仁勛表示,一臺服務(wù)器可以同時裝載兩個GH200超級芯片,大型語言模型的推理成本將會大幅降低。
到底有多夸張呢?
投資800萬美元Grace Hopper,就相當于8800個價值1億美元的x86 GPU,意味著成本降低12倍,能耗降低20倍。
除此之外,英偉達還發(fā)布了AI Workbench。
其能夠為開發(fā)者提供一個統(tǒng)一、易用的工作空間,使他們有能力在個人電腦或工作站上快速創(chuàng)建、測試和微調(diào)生成式 AI 模型,并將這些模型擴展到幾乎所有數(shù)據(jù)中心、公有云或DGX Cloud。
另外,英偉達在會上還發(fā)布了3款適用于臺式工作站的GPU,分別是RTX 5000、RTX 4500和RTX 4000,可以為可擴展開放式3D世界生態(tài)系統(tǒng)通用場景描述提供加速。
最后,基于GH200 Grace Hopper平臺的新系統(tǒng)將于2024年第二季度投產(chǎn)。
毫無疑問,英偉達最新芯片的推出將對于AI來說又是一支強心劑,對于大模型的效率和成本能帶來明顯改觀。同時,也將繼續(xù)鞏固英偉達在AI領(lǐng)域的地位。
不久前的6月份,AMD發(fā)布大模型專用芯片Insight MI300X,顯示出在AI領(lǐng)域的實力。但此時此刻,也許壓力又來到了AMD這邊。
就問AMD,怕不怕?