【ITBEAR科技資訊】4月5日消息,Alphabet Inc.旗下谷歌公司周二公布了其用于訓(xùn)練人工智能模型的超級計(jì)算機(jī)的新細(xì)節(jié)。該系統(tǒng)使用自主設(shè)計(jì)的名為“張量處理單元”(TPU)的芯片,可以用于諸如用人類語言回答問題或生成圖像等任務(wù)。
谷歌的 TPU 現(xiàn)在已經(jīng)是第四代了。據(jù)了解,谷歌的 TPU 現(xiàn)在已經(jīng)是第四代了,谷歌周二發(fā)表了一篇科學(xué)論文,詳細(xì)介紹了他們?nèi)绾问褂米约憾ㄖ崎_發(fā)的光學(xué)開關(guān)將 4000 多個(gè)芯片串聯(lián)成一臺超級計(jì)算機(jī)。谷歌表示,其超級計(jì)算機(jī)可以輕松地實(shí)時(shí)重新配置芯片之間的連接,有助于避免問題并提高性能。谷歌研究員 Norm Jouppi 和谷歌杰出工程師 David Patterson 在一篇關(guān)于該系統(tǒng)的博文中寫道:“電路切換使我們很容易繞過故障部件。這種靈活性甚至允許我們改變超級計(jì)算機(jī)互連的拓?fù)浣Y(jié)構(gòu),以加速 ML(機(jī)器學(xué)習(xí))模型的性能。”
為谷歌的 Bard 或 OpenAI 的 ChatGPT 等技術(shù)提供動(dòng)力的所謂大型語言模型的規(guī)模已經(jīng)爆炸性增長,這意味著它們太大,無法存儲在單個(gè)芯片上。這些模型必須被分割到數(shù)以千計(jì)的芯片中,然后這些芯片必須協(xié)同工作數(shù)周或更長時(shí)間來訓(xùn)練模型。谷歌的 PaLM 模型 —— 迄今為止其公開披露的最大的語言模型 —— 是通過將其分散到 4,000 個(gè)芯片的兩臺超級計(jì)算機(jī)上,歷時(shí) 50 天進(jìn)行訓(xùn)練的。
據(jù)ITBEAR科技資訊了解,谷歌表示,對于同等規(guī)模的系統(tǒng),其超級計(jì)算機(jī)比基于 Nvidia A100 芯片的系統(tǒng)快 1.7 倍,節(jié)能 1.9 倍。谷歌表示,之所以沒有將其第四代產(chǎn)品與 Nvidia 目前的旗艦產(chǎn)品 H100 芯片進(jìn)行比較,因?yàn)?H100 是在谷歌的芯片之后上市的,而且是用更新的技術(shù)制造的。谷歌暗示他們可能正在開發(fā)一種新的 TPU,與 Nvidia H100 競爭。