在探討機(jī)器與人類學(xué)習(xí)能力的邊界時,一個常被忽視的現(xiàn)象正逐漸受到學(xué)術(shù)界的關(guān)注——通過思考學(xué)習(xí)(LbT)。這一理念挑戰(zhàn)了傳統(tǒng)的學(xué)習(xí)觀念,即學(xué)習(xí)必須基于外部信息的輸入。事實(shí)上,無論是科學(xué)家在腦海中構(gòu)建實(shí)驗(yàn)?zāi)P停€是司機(jī)在心智中模擬行車路線,都證明了即便沒有新的外界數(shù)據(jù),學(xué)習(xí)依然可以發(fā)生。
普林斯頓大學(xué)心理系的Tania Lombrozo教授在《Trends in Cognitive Sciences》上發(fā)表的研究綜述,為這一看似矛盾的現(xiàn)象提供了理論支持。Lombrozo通過分析解釋、模擬、比較和推理這四種學(xué)習(xí)方式,揭示了它們背后的計算機(jī)制,并指出無論是人類還是人工智能,都在利用現(xiàn)有信息的重新表征來支持更可靠的推理。
解釋性學(xué)習(xí)是一個典型的例子。在一項(xiàng)經(jīng)典研究中,優(yōu)秀學(xué)生在面對學(xué)習(xí)材料時,更傾向于通過向自己解釋來深化理解。這種學(xué)習(xí)方式不僅有助于糾正現(xiàn)有認(rèn)知中的偏差,還能構(gòu)建新的知識表征。類似地,AI系統(tǒng)也通過生成自我解釋來實(shí)現(xiàn)泛化,從而在關(guān)系推理和因果推理任務(wù)中表現(xiàn)出色。
模擬學(xué)習(xí)則是另一種重要的LbT方式。愛因斯坦通過想象光子與火車的運(yùn)動來探討相對論,伽利略則模擬物體下落來研究重力。這些心理模擬不僅不需要外部數(shù)據(jù),還能帶來深刻的科學(xué)見解。在AI領(lǐng)域,深度強(qiáng)化學(xué)習(xí)系統(tǒng)通過模擬多組決策序列來近似求解最佳方案,與人類的心理模擬有著異曲同工之妙。
類比推理和比較學(xué)習(xí)同樣展示了LbT的力量。達(dá)爾文在構(gòu)建自然選擇理論時,通過類比人工選擇與生物進(jìn)化,推導(dǎo)出了自然選擇中的變異機(jī)制。在AI研究中,即使不提供源類比,機(jī)器也能通過自身的思維或知識構(gòu)建類比,從而在數(shù)學(xué)問題、代碼生成等任務(wù)中表現(xiàn)出色。這種類比提示的表現(xiàn)甚至優(yōu)于許多最先進(jìn)的語言模型性能基準(zhǔn)。
推理學(xué)習(xí)則是LbT中最為復(fù)雜的一種。有效的推理不僅需要邏輯推導(dǎo),還需要反思和實(shí)際判斷。在人工智能領(lǐng)域,盡管深度學(xué)習(xí)系統(tǒng)的推理能力仍在發(fā)展中,但提示大型語言模型進(jìn)行逐步推理已被證明在應(yīng)對高難度任務(wù)時尤為有效。這種推理方式不僅克服了直接提示下的錯誤傾向,還展示了AI在推理領(lǐng)域的巨大潛力。
Lombrozo的研究還揭示了LbT的悖論之處:學(xué)習(xí)者并沒有獲得新的信息,只是利用了已存在于腦海中的元素;然而,學(xué)習(xí)確實(shí)發(fā)生了,學(xué)習(xí)者獲得了新的知識或能力。她指出,這種學(xué)習(xí)并非創(chuàng)造全新的知識,而是讓已有的知識變得可獲取。通過推理、解釋、模擬和比較等過程,學(xué)習(xí)者能夠提取具有新可及條件的表征,并利用這些表征生成新的知識與能力。
Lombrozo還強(qiáng)調(diào)了LbT的必要性。在資源有限的智能體中,LbT提供了一種按需生成新穎且有用表征的方法,而不是單純依賴已有的學(xué)習(xí)結(jié)果。這解釋了為什么無論是自然智能還是人工智能,在面對未來環(huán)境和目標(biāo)的不確定性時,都會依賴LbT來應(yīng)對。
盡管LbT在自然智能和人工智能中的實(shí)現(xiàn)還有許多未解之謎,但這一現(xiàn)象無疑揭示了認(rèn)知的局限性,并為理解智能的本質(zhì)提供了新的視角。隨著研究的深入,我們有望揭開LbT的更多秘密,從而更好地利用這一機(jī)制來促進(jìn)學(xué)習(xí)和智能的發(fā)展。