在AI技術日新月異的今天,ChatGPT的橫空出世無疑為整個行業點燃了一把熊熊烈火。這款在2022年一經發布便迅速吸引全球目光的AI模型,短短兩個月內便收獲了1億注冊用戶,不僅極大地激發了公眾對人工智能的期待,也讓業界看到了AI大模型技術的無限潛力。
近年來,AI大模型如雨后春筍般不斷涌現,據中國信通院數據顯示,截至2024年7月,全球AI大模型數量已高達1328個,其中中國的大模型數量占比達到了36%。隨著技術的不斷進步,模型的研發和應用也從最初的大語言模型擴展到了多模態模型。然而,算力、網絡等基礎設施的優化仍然是AI大模型賴以生存和發展的關鍵。
在這個被稱為中國大模型“洗牌年”的關鍵時刻,近日,國內知名AI大模型獨角獸MiniMax的副總裁劉華與騰訊云北區云原生總經理田豐接受了包括智東西在內的多家媒體的采訪,共同探討了算力、網絡對AI大模型落地應用的影響。
MiniMax,這家成立于2021年12月的公司,被譽為“國產大模型六小虎”之一。自成立以來,MiniMax便致力于自主研發多模態通用大模型,包括萬億參數的MoE文本大模型、語音和音樂大模型、圖像大模型以及視頻大模型等。基于這些通用大模型,MiniMax推出了智能助手“海螺AI”、AI陪伴產品“星野”“Talkie”等面向C端的應用,并通過其開放平臺為企業和開發者提供API服務。
在采訪中,劉華從AI大模型公司的角度出發,談到了多模態大模型在應用過程中所面臨的算力成本問題。他指出,隨著大模型從處理文本任務擴展到語音任務、視頻任務,算力需求急劇增加。如果用token來計算,一個小視頻的tokens數量遠遠超過了一篇文章的tokens數量。因此,為了讓新技術落地并讓更多企業或個人接受,必須確保大模型能夠以高性價比的方式處理大規模的輸入或輸出。
作為MiniMax的長期合作伙伴,騰訊云自MiniMax成立之初便與其建立了合作關系,為其提供算力、網絡等基礎設施支持。田豐在采訪中分享了這兩三年來他對客戶需求變化的觀察。他表示,大模型公司客戶對算力的需求從早期的千卡集群到現在的上萬卡,甚至未來可能達到十萬卡。這種規模的增長對云服務的組網能力、集群運維都帶來了全新的挑戰。
特別是在網絡方面,田豐強調,訓練萬億參數的大模型時,傳統的網絡協議容易造成擁堵和高延時。0.1%的丟包率都可能導致50%的續訓效率下降,中斷恢復后需要從上一個續訓點繼續訓練,這對萬億規模的模型訓練來說是一個巨大的損失。因此,優化網絡傳輸通訊效率成為了一個亟待解決的問題。
田豐還提到,并不是所有的大模型廠商都需要十萬卡的算力,十萬卡的訓練效率也并不一定大于萬卡的訓練效率。關鍵在于優化和調整GPU資源的利用率,以及提高網絡傳輸通訊的效率。只有這樣,才能在不斷增長的算力需求中保持競爭力。
在AI大模型行業進入淘汰賽階段的當下,算力、技術、產品都成為競爭的關鍵要素。中國大模型的“洗牌年”里,大模型公司和云服務廠商都在積極應對挑戰,尋求突破。正如劉華在采訪中所說:“實踐是檢驗AI的唯一標準。AI大模型是一場長跑,投資人和創業者都需要有信心和耐心。炫酷的技術最終還是要落實到商業化本身,要盈利去賺錢。”