12 月 3 日消息,據(jù)阿里云官方發(fā)布,阿里達摩院成功研發(fā)存算一體芯片。這是全球首款基于 DRAM 的 3D 鍵合堆疊存算一體芯片。它可突破馮?諾依曼架構的性能瓶頸,滿足人工智能等場景對高帶寬、高容量內存和極致算力的需求。在特定 AI 場景中,該芯片性能提升 10 倍以上,效能比提升高達 300 倍。
為什么要研發(fā)存算一體芯片?
隨著人工智能應用場景的爆發(fā),現(xiàn)有的計算機系統(tǒng)架構的短板逐漸顯露,例如功耗墻、性能墻、內存墻等問題。
其主要癥結在于:
一是數(shù)據(jù)搬運帶來了巨大的能量消耗。在傳統(tǒng)架構下,數(shù)據(jù)從內存單元傳輸?shù)接嬎銌卧枰墓氖怯嬎惚旧淼募s 200 倍,因此真正用于計算的能耗和時間占比很低。
二是內存的發(fā)展遠遠滯后于處理器的發(fā)展。目前,處理器的算力以每兩年 3.1 倍的速度增長,而內存的性能每兩年只有 1.4 倍的提升。后者的性能極大地影響了數(shù)據(jù)傳輸?shù)乃俣龋@也被認為是傳統(tǒng)計算機的阿克琉斯之踵。
存算一體芯片是目前解決以上問題的最佳途徑 —— 它類似于人腦,將數(shù)據(jù)存儲單元和計算單元融合為一體,大幅減少數(shù)據(jù)搬運,從而極大提高計算并行度和能效。
這一技術早在 90 年代就被提出,但受限于技術的復雜度、高昂的設計成本以及應用場景的匱乏,過去幾十年業(yè)界對存算一體芯片的研究進展緩慢。如今,達摩院希望通過自研創(chuàng)新技術解決算力瓶頸這一業(yè)界難題。
此外,存算一體芯片在終端、邊緣端以及云端都有廣闊的應用前景。例如 VR/AR、無人駕駛、天文數(shù)據(jù)計算、遙感影像數(shù)據(jù)分析等場景中,存算一體芯片都可以發(fā)揮高帶寬、低功耗的優(yōu)勢。
從長遠來看,存算一體技術還將成為類腦計算的關鍵技術。
實現(xiàn)存算一體的三種路線
實現(xiàn)存算一體有三種技術路線:
- 近存儲計算(Processing Near Memory):計算操作由位于存儲芯片外部的獨立計算芯片完成。
- 內存儲計算(Processing In Memory):計算操作由位于存儲芯片內部的獨立計算單元完成,存儲單元和計算單元相互獨立存在。
- 內存執(zhí)行計算(Processing With Memory):存儲芯片內部的存儲單元完成計算操作,存儲單元和計算單元完全融合,沒有一個獨立的計算單元。
其中,近存計算通過將計算資源和存儲資源距離拉近,實現(xiàn)對能效和性能的大幅度提升,被認為是現(xiàn)階段解決內存墻問題的最佳途徑。達摩院本次也是沿著這一方向進行突破。
混合鍵合 3D 堆疊技術
為了拉近計算資源和存儲資源的距離,達摩院計算技術實驗室創(chuàng)新性采用混合鍵合 (Hybrid Bonding) 的 3D 堆疊技術進行芯片封裝 —— 將計算芯片和存儲芯片 face-to-face 地用特定金屬材質和工藝進行互聯(lián)。
比起業(yè)內常見的封裝方案 HBM,混合鍵合 3D 堆疊技術擁有高帶寬、低成本等特點,被認為是低功耗近存計算的完美載體之一。
此外,內存單元采用異質集成嵌入式 DRAM ,擁有超大內存容量和超大帶寬優(yōu)勢。
在計算芯片方面,達摩院研發(fā)設計了流式的定制化加速器架構,對推薦系統(tǒng)進行“端到端”加速,包括匹配、粗排序、神經(jīng)網(wǎng)絡計算、細排序等任務。
這種近存架構有效解決了帶寬受限的問題,最終內存、算法以及計算模塊的完美融合,大幅提升帶寬的同時還實現(xiàn)了超低功耗,展示了近存計算在數(shù)據(jù)中心場景的潛力。
達摩院表示,最終的測試芯片顯示,這種存算技術和架構的優(yōu)勢明顯:
能通過拉近存儲單元與計算單元的距離增加帶寬,降低數(shù)據(jù)搬運的代價,緩解由于數(shù)據(jù)搬運產生的瓶頸,而且與數(shù)據(jù)中心的推薦系統(tǒng)對于帶寬/內存的需求完美匹配。
該芯片的研究成果已被芯片領域頂級會議 ISSCC 2022 收錄。未來,達摩院希望能進一步攻克存內計算技術,并逐步優(yōu)化典型應用、生態(tài)系統(tǒng)等方面。