【ITBEAR】近期,AI領(lǐng)域巨頭OpenAI、谷歌與Anthropic在推進(jìn)新一代AI模型時紛紛遭遇挑戰(zhàn),引發(fā)了業(yè)界的廣泛關(guān)注。
據(jù)彭博社報道,OpenAI的最新模型Orion在開發(fā)過程中未能如期展現(xiàn)卓越性能,特別是在編碼任務(wù)上未能顯著超越其前代產(chǎn)品GPT-4。同樣,谷歌的Gemini模型也未實現(xiàn)預(yù)期中的重大技術(shù)突破。而Anthropic的Claude 3.5 Opus模型則因技術(shù)難題多次推遲發(fā)布,發(fā)布計劃一變再變。
過去,AI行業(yè)普遍遵循Scaling Law,即認(rèn)為通過增加數(shù)據(jù)量和算力,模型性能會相應(yīng)提升。基于這一理論,各大公司不惜重金投入AI基礎(chǔ)設(shè)施建設(shè),擴(kuò)建數(shù)據(jù)中心,并采購大量GPU進(jìn)行模型訓(xùn)練。然而,隨著訓(xùn)練速度放緩,這一策略的可持續(xù)性開始受到質(zhì)疑。
近年來,OpenAI、谷歌和Anthropic在短時間內(nèi)推出了眾多復(fù)雜的AI模型。然而,隨著高質(zhì)量數(shù)據(jù)的日益稀缺,這些公司在模型開發(fā)速度和性能上均出現(xiàn)了明顯放緩。OpenAI CEO薩姆·阿爾特曼近期表示,未來的突破可能不再單純依賴于模型規(guī)模的擴(kuò)大,而是需要開發(fā)新的應(yīng)用和用例,如AI Agent。
面對新一代AI系統(tǒng)的構(gòu)建,OpenAI、谷歌和Anthropic均遭遇了高質(zhì)量數(shù)據(jù)短缺的問題,尤其是編碼數(shù)據(jù)的獲取愈發(fā)困難。在這種情況下,即使是微小的性能改進(jìn),也難以證明新模型所需的巨額研發(fā)投入是合理的。AI初創(chuàng)公司Hugging Face的首席倫理科學(xué)家瑪格麗特·米切爾指出,AGI(通用人工智能)的“泡沫”正在破裂,現(xiàn)有的訓(xùn)練方法可能無法滿足AI在多任務(wù)處理上的需求,急需新的訓(xùn)練方法。
目前,OpenAI仍在對Orion進(jìn)行“后訓(xùn)練”,并嘗試通過引入人類反饋來改進(jìn)其性能,但Orion的正式發(fā)布時間尚未確定。谷歌DeepMind則表示,Gemini模型的進(jìn)展符合預(yù)期,但更多細(xì)節(jié)將在準(zhǔn)備就緒后分享。Anthropic CEO達(dá)里奧·阿莫迪則指出,Scaling Law并非宇宙法則,而是經(jīng)驗規(guī)律,雖然“很多因素”可能影響AI的發(fā)展,但他對克服這些障礙保持樂觀。
許多AI公司堅持“越多越好”的策略,投入大量資源以期打造接近人類智能的AI系統(tǒng)。但隨著計算資源和數(shù)據(jù)成本的不斷上升,新模型開發(fā)的風(fēng)險和期望也在持續(xù)增加。Anthropic CEO阿莫迪透露,預(yù)計今年公司將花費1億美元來訓(xùn)練尖端模型,未來幾年這一數(shù)額可能達(dá)到1000億美元。
隨著成本的不斷攀升,人們對AI模型進(jìn)展的速度產(chǎn)生了疑慮。馬薩諸塞州沃爾瑟姆本特利大學(xué)數(shù)學(xué)副教授諾亞·吉安西拉庫薩表示,雖然AI模型會持續(xù)改進(jìn),但增長速度和技術(shù)突破的持續(xù)性值得懷疑。硅谷的AI技術(shù)進(jìn)步困境已經(jīng)成為焦點問題,Anthropic的Claude Opus模型就是一個例子,其發(fā)布消息突然從公司網(wǎng)站消失,引發(fā)了業(yè)界的廣泛關(guān)注。