【ITBEAR科技資訊】12月31日消息,據(jù)韓國Chosun Biz最新報(bào)道,英偉達(dá)在積極預(yù)定臺(tái)積電產(chǎn)能的同時(shí),還斥資巨大與美光和SK海力士簽下了HBM3內(nèi)存的供應(yīng)大單。
知情人士透露,英偉達(dá)此次預(yù)購的HBM3內(nèi)存規(guī)模在700億至1萬億韓元之間。盡管具體細(xì)節(jié)尚未公布,但市場(chǎng)普遍分析認(rèn)為,英偉達(dá)此舉旨在確保其在2024年新一代AI和HPC GPU推出時(shí),HBM內(nèi)存的供應(yīng)能夠保持穩(wěn)定。
據(jù)ITBEAR科技資訊了解,當(dāng)前三星電子、SK海力士、美光這三大存儲(chǔ)巨頭的HBM產(chǎn)能已經(jīng)被預(yù)訂一空。業(yè)內(nèi)人士預(yù)計(jì),在AI領(lǐng)域半導(dǎo)體公司的激烈競(jìng)爭(zhēng)推動(dòng)下,HBM市場(chǎng)有望在未來兩年內(nèi)迎來爆發(fā)式增長(zhǎng)。
此前有消息顯示,英偉達(dá)正在籌備兩款搭載HBM3E內(nèi)存的新品:分別是配備高達(dá)141GB HBM3E內(nèi)存的H200 GPU和GH200超級(jí)芯片。這兩款產(chǎn)品的推出無疑將進(jìn)一步提升英偉達(dá)對(duì)HBM內(nèi)存的需求。
作為當(dāng)前全球最強(qiáng)大的AI芯片,H200不僅采用了創(chuàng)新的HBM3e技術(shù),還基于NVIDIA Hopper架構(gòu)打造,與H100完美兼容,并提供了驚人的4.8TB/s傳輸速度。在人工智能應(yīng)用方面,英偉達(dá)宣稱HGX H200在Llama 2上的推理速度相較于H100提升了一倍。此外,HGX H200將支持4路和8路的配置,適用于各類數(shù)據(jù)中心環(huán)境,并由多家主流云服務(wù)提供商部署。該產(chǎn)品預(yù)計(jì)將于2024年第二季度正式上市。