【ITBEAR】隨著人工智能(AI)技術(shù)的廣泛應(yīng)用,其對能源的需求急劇增加,給數(shù)據(jù)中心的能源使用帶來了巨大壓力,同時也引發(fā)了公眾對其能源消耗量的廣泛關(guān)注。有數(shù)據(jù)顯示,生成式人工智能模型中的單個查詢所消耗的能量,相當于一個燈泡開啟一小時的耗電量。大型科技公司紛紛表示,由于AI技術(shù)的使用,他們正面臨實現(xiàn)氣候目標的巨大挑戰(zhàn)。
那么,人工智能能否實現(xiàn)更高的可持續(xù)性呢?越來越多的專家對此持樂觀態(tài)度。
根據(jù)國際能源署的數(shù)據(jù),數(shù)據(jù)中心已經(jīng)占據(jù)了全球用電量的1-1.5%。AI技術(shù)的繁榮進一步推動了這一數(shù)字的增長。預(yù)計到2026年,全球數(shù)據(jù)中心的總用電量可能會翻一番以上,而僅靠可再生能源無法滿足這一龐大的需求。
“大規(guī)模人工智能的應(yīng)用才剛剛開始,”IEEE高級會員Euclides Chuma指出,“研究人員正在積極探索硬件和軟件解決方案,以降低AI的能耗,同時提升其性能。”
為何AI會消耗如此多的能量呢?這背后的原因并不簡單。AI技術(shù)包含多種不同的系統(tǒng)和應(yīng)用,它們的能耗也各不相同。例如,一些已經(jīng)應(yīng)用多年的AI系統(tǒng),如電子商務(wù)網(wǎng)站的購物推薦算法,通常消耗的能量較少。而新興的生成式AI系統(tǒng),則能夠在幾次按鍵之間創(chuàng)建出豐富的書面和視覺內(nèi)容,但它們的能耗卻更高。
一篇發(fā)表在IEEE Spectrum上的文章估計,訓(xùn)練最先進的語言生成模型GPT-3需要數(shù)周時間和數(shù)百萬美元的投入。同時,它還需要消耗19萬千瓦時的電力,產(chǎn)生的二氧化碳量相當于駕駛汽車往返月球的距離!
盡管如此,許多專家仍然相信,隨著技術(shù)的改進,AI將變得更加強大和高效。
模型訓(xùn)練中使用的硬件類型的變化將有助于降低能耗。例如,使用非易失性存儲器代替易失性內(nèi)存(如DRAM)可以降低能耗,因為這些存儲器中的數(shù)據(jù)不需要刷新。
還有其他一些步驟可能標志著通往更環(huán)保的AI之路:改進數(shù)據(jù)中心的冷卻系統(tǒng)、使用更少的數(shù)據(jù)進行訓(xùn)練、更多地使用可再生能源以及在某些情況下避免使用AI等。