【ITBEAR科技資訊】2月27日消息,美光科技近日宣布已開始大規模生產其最新一代的HBM3E高帶寬內存。據悉,這款24GB 8H HBM3E產品已被英偉達公司選中,并將應用于即將在第二季度發貨的NVIDIA H200 Tensor Core GPU中。
據ITBEAR科技資訊了解,美光科技的HBM3e內存基于先進的1β工藝,融合了TSV封裝以及2.5D/3D堆疊技術,能夠為用戶提供高達1.2TB/s甚至更高的出色性能。這款產品的問世,無疑將進一步推動高性能計算領域的發展。
美光科技表示,與市場上的競品相比,其HBM3E解決方案在性能、能效和可擴展性三個方面具有顯著優勢。具體而言,HBM3E的針腳速率超過9.2Gb/s,內存帶寬超過1.2TB/s,足以滿足人工智能加速器、超級計算機和數據中心的嚴苛需求。此外,與競品相比,HBM3E的功耗降低了約30%,實現了在提供最大吞吐量的同時,將功耗降至最低,有助于數據中心降低運營支出。HBM3E目前提供的24GB容量,使得數據中心在擴展AI應用時更加輕松,無論是訓練大規模神經網絡還是加速推理任務,都能提供必要的內存帶寬。
美光科技執行副總裁兼首席商務官Sumit Sadana對此表示:“美光科技憑借HBM3E的這一里程碑,實現了在上市時間、行業性能和能效方面的三連勝。隨著人工智能工作負載對內存帶寬和容量的需求不斷增長,美光科技憑借業界領先的HBM3E和HBM4路線圖,以及我們為AI應用提供的完整DRAM和NAND解決方案組合,處于支持未來AI顯著增長的有利位置。”
HBM作為美光科技最盈利的產品之一,其構造涉及的技術復雜性極高。美光科技此前曾預測,到2024財年,其HBM收入將達到數億美元,并在2025年繼續保持增長勢頭。此外,美光科技還計劃在3月18日召開的全球人工智能大會上,分享更多關于其領先的人工智能內存產品組合和路線圖的信息,屆時我們有望看到美光科技在AI領域的更多布局和突破。