【ITBEAR】近日,蘋果公司內(nèi)部研究團隊揭露了一個令人驚訝的發(fā)現(xiàn):即便是目前最尖端的AI模型,在處理包含干擾信息的簡單算術(shù)問題時,表現(xiàn)竟不如小學(xué)生。這一結(jié)果引發(fā)了關(guān)于人工智能真實能力的新一輪討論。
據(jù)《洛杉磯時報》報道,蘋果團隊采用了一道涉及獼猴桃采摘數(shù)量的算術(shù)題進行測試。題目描述了一個簡單的場景:Oliver在三天內(nèi)采摘了不同數(shù)量的獼猴桃,其中還包括了一些額外的、與總數(shù)計算無關(guān)的信息。然而,就是這樣一個看似簡單的問題,卻讓20多個高級AI模型紛紛“栽跟頭”。
正確答案應(yīng)為190個獼猴桃,但多數(shù)AI模型給出的答案卻是185個。研究發(fā)現(xiàn),這些模型在處理問題時,難以忽略那些看似相關(guān)、實則無關(guān)的干擾信息,如“其中有5個獼猴桃的塊頭要比平均值要小”。這一細節(jié)雖不影響總數(shù)的計算,卻成功迷惑了眾多AI。
蘋果團隊進一步指出,這一問題的根源在于,當(dāng)前的AI模型主要依賴于訓(xùn)練數(shù)據(jù)中的語言模式進行推理,而非真正理解了數(shù)學(xué)概念本身。這意味著,在面對稍微復(fù)雜或包含非典型信息的問題時,AI的“智能”可能就會變得不再可靠。
值得注意的是,蘋果的研究并非旨在全盤否定AI的價值。相反,他們希望通過這一發(fā)現(xiàn),提醒人們在熱情擁抱AI技術(shù)的同時,也應(yīng)保持理性的認知和審慎的態(tài)度。簡單的數(shù)據(jù)擴展或計算能力提升,并不能從根本上解決AI在邏輯推理方面的局限性。
此次研究不僅揭示了AI模型在處理復(fù)雜問題時的潛在弱點,也為未來AI技術(shù)的發(fā)展提供了新的思考方向。隨著技術(shù)的不斷進步,我們期待看到更加智能、更加可靠的AI系統(tǒng)出現(xiàn)。