【ITBEAR科技資訊】4月15日消息,隨著人工智能(AI)技術的飛速發展,由其引發的能耗問題日益凸顯,引發了社會各界的廣泛關注。近日,芯片巨頭Arm公司的CEO哈斯(Rene Haas)公開表示,包括ChatGPT在內的大型AI模型對算力的巨大需求,預計到2030年,AI數據中心將占據美國20%至25%的電力需求,相較于現在的4%有大幅增長。
據ITBEAR科技資訊了解,當前ChatGPT每天需要處理超過2億次請求,其電量消耗高達每天50萬千瓦時,相當于一年電費就要花費2億元人民幣。這一數字令人震驚,它意味著ChatGPT的日耗電量是普通家庭的1.7萬倍以上。同時,有預測認為,到2027年,AI行業每年的電力消耗可能達到850億~1340億千瓦時,這相當于一個歐洲國家一年的總用電量。
不僅如此,AI技術的發展也對水資源產生了巨大需求。大型AI模型如ChatGPT背后的數據中心,需要大量的液冷設備進行散熱。有研究顯示,訓練GPT-3模型在15天內就消耗了將近70萬升的水。這使得AI技術不僅是一個“耗電狂魔”,更是一個“吞水巨獸”。
電力和水資源的巨大消耗,已經成為AI技術持續發展的關鍵“桎梏”。面對即將到來的能源挑戰,全球科技巨頭和研究者們正在積極尋找解決方案,以期在推動AI技術發展的同時,降低其對能源的依賴和消耗。這一問題不僅關乎科技進步,更關乎我們地球的可持續發展。