【ITBEAR】近期,AI領域巨頭OpenAI、谷歌與Anthropic在推進新一代AI模型時紛紛遭遇挑戰,引發了業界的廣泛關注。
據彭博社報道,OpenAI的最新模型Orion在開發過程中未能如期展現卓越性能,特別是在編碼任務上未能顯著超越其前代產品GPT-4。同樣,谷歌的Gemini模型也未實現預期中的重大技術突破。而Anthropic的Claude 3.5 Opus模型則因技術難題多次推遲發布,發布計劃一變再變。
過去,AI行業普遍遵循Scaling Law,即認為通過增加數據量和算力,模型性能會相應提升。基于這一理論,各大公司不惜重金投入AI基礎設施建設,擴建數據中心,并采購大量GPU進行模型訓練。然而,隨著訓練速度放緩,這一策略的可持續性開始受到質疑。
近年來,OpenAI、谷歌和Anthropic在短時間內推出了眾多復雜的AI模型。然而,隨著高質量數據的日益稀缺,這些公司在模型開發速度和性能上均出現了明顯放緩。OpenAI CEO薩姆·阿爾特曼近期表示,未來的突破可能不再單純依賴于模型規模的擴大,而是需要開發新的應用和用例,如AI Agent。
面對新一代AI系統的構建,OpenAI、谷歌和Anthropic均遭遇了高質量數據短缺的問題,尤其是編碼數據的獲取愈發困難。在這種情況下,即使是微小的性能改進,也難以證明新模型所需的巨額研發投入是合理的。AI初創公司Hugging Face的首席倫理科學家瑪格麗特·米切爾指出,AGI(通用人工智能)的“泡沫”正在破裂,現有的訓練方法可能無法滿足AI在多任務處理上的需求,急需新的訓練方法。
目前,OpenAI仍在對Orion進行“后訓練”,并嘗試通過引入人類反饋來改進其性能,但Orion的正式發布時間尚未確定。谷歌DeepMind則表示,Gemini模型的進展符合預期,但更多細節將在準備就緒后分享。Anthropic CEO達里奧·阿莫迪則指出,Scaling Law并非宇宙法則,而是經驗規律,雖然“很多因素”可能影響AI的發展,但他對克服這些障礙保持樂觀。
許多AI公司堅持“越多越好”的策略,投入大量資源以期打造接近人類智能的AI系統。但隨著計算資源和數據成本的不斷上升,新模型開發的風險和期望也在持續增加。Anthropic CEO阿莫迪透露,預計今年公司將花費1億美元來訓練尖端模型,未來幾年這一數額可能達到1000億美元。
隨著成本的不斷攀升,人們對AI模型進展的速度產生了疑慮。馬薩諸塞州沃爾瑟姆本特利大學數學副教授諾亞·吉安西拉庫薩表示,雖然AI模型會持續改進,但增長速度和技術突破的持續性值得懷疑。硅谷的AI技術進步困境已經成為焦點問題,Anthropic的Claude Opus模型就是一個例子,其發布消息突然從公司網站消失,引發了業界的廣泛關注。