【ITBEAR】DeepMind近期在國際象棋AI領(lǐng)域取得了新的突破,其訓(xùn)練的Transformer模型在不需要搜索算法的情況下,實(shí)現(xiàn)了大師級(jí)的下棋水平。這一成果在學(xué)術(shù)界引起了廣泛討論,并推動(dòng)了相關(guān)數(shù)據(jù)集和代碼的開源。
該研究最初由一位網(wǎng)友分享,引發(fā)了關(guān)于Transformer是否能進(jìn)行邏輯推理的爭論。有網(wǎng)友認(rèn)為這顯示了Transformer的推理和規(guī)劃能力,但也有人反駁稱,這只是模式匹配,而非真正的推理。
田淵棟指出,Transformer模型在閃電戰(zhàn)模式下的表現(xiàn)更多依賴于直覺和戰(zhàn)術(shù)反應(yīng),而非深度搜索和規(guī)劃。他認(rèn)為,模型雖然Elo分?jǐn)?shù)高,但未能展示出超越訓(xùn)練數(shù)據(jù)的能力。
顧全全則解釋道,推理的核心在于蘊(yùn)涵,而Transformer實(shí)現(xiàn)推理的關(guān)鍵在于學(xué)習(xí)推理規(guī)則。他認(rèn)為,DeepMind的研究展示了Transformer學(xué)習(xí)推理規(guī)則的潛力,但仍需要更多理論研究來確認(rèn)其能否像人類一樣推理。
此次研究不僅限于技術(shù)本身,還引發(fā)了關(guān)于將概率算法提煉成神經(jīng)模型的通用方法的討論。有網(wǎng)友認(rèn)為這是一個(gè)重要突破,但也有學(xué)者指出模型在泛化能力上的局限性。
DeepMind于10月21日更新了論文,并推出了名為ChessBench的大規(guī)模數(shù)據(jù)集,包含1000萬個(gè)國際象棋局面及其走法與價(jià)值注釋。研究團(tuán)隊(duì)還開源了數(shù)據(jù)集、模型權(quán)重以及所有訓(xùn)練和評(píng)估代碼。
對(duì)于DeepMind重回棋局研究的原因,有觀點(diǎn)認(rèn)為,這是AI大模型重做現(xiàn)有應(yīng)用的一個(gè)實(shí)例,旨在進(jìn)一步挖掘商業(yè)價(jià)值并提升用戶體驗(yàn)。
該研究對(duì)輕量化模型的發(fā)展具有重要意義。270M參數(shù)的Transformer模型不僅能在移動(dòng)設(shè)備上順暢運(yùn)行,還展示了小模型在滿足業(yè)務(wù)需求方面的潛力。
這項(xiàng)研究還引發(fā)了一個(gè)哲學(xué)問題:AI是否正在向“直覺型思維”邁進(jìn)?盡管AI的策略來自對(duì)大量數(shù)據(jù)的學(xué)習(xí),與人類的“下意識(shí)反應(yīng)”存在本質(zhì)區(qū)別,但這種模擬行為為AI如何在復(fù)雜環(huán)境中進(jìn)行推理提供了新的思路。