日日操夜夜添-日日操影院-日日草夜夜操-日日干干-精品一区二区三区波多野结衣-精品一区二区三区高清免费不卡

公告:魔扣目錄網(wǎng)為廣大站長(zhǎng)提供免費(fèi)收錄網(wǎng)站服務(wù),提交前請(qǐng)做好本站友鏈:【 網(wǎng)站目錄:http://www.ylptlb.cn 】, 免友鏈快審服務(wù)(50元/站),

點(diǎn)擊這里在線咨詢客服
新站提交
  • 網(wǎng)站:51998
  • 待審:31
  • 小程序:12
  • 文章:1030137
  • 會(huì)員:747

今天分享一篇知乎高贊文章,作者是張俊林老師。

大型語(yǔ)言模型(LLM)技術(shù)精要,不看虧了圖片

讀完收獲很多,能幫大家更好地理解、學(xué)習(xí)大模型。原文有2.8w字,我提煉了核心要點(diǎn),閱讀需要10min。

ChatGPT的出現(xiàn)給很多人帶來(lái)了驚喜和醒悟。有人驚喜地發(fā)現(xiàn)大型語(yǔ)言模型(LLM)的效果如此出色,而有人則意識(shí)到我們對(duì)LLM的認(rèn)知和發(fā)展理念距離世界先進(jìn)水平還有很大差距。我是既驚喜又醒悟的一員,也是典型的中國(guó)人,善于自我反思。因此,我開始反思,并將這篇文章作為反思的結(jié)果。

我認(rèn)為,AI target=_blank class=infotextkey>OpenAI在LLM的理念和相關(guān)技術(shù)方面領(lǐng)先于國(guó)外的google和DeepMind大約半年到一年的時(shí)間,領(lǐng)先國(guó)內(nèi)大約兩年左右。在LLM這個(gè)問(wèn)題上,梯隊(duì)很明顯,Google應(yīng)該排在第二位,最能體現(xiàn)Google技術(shù)眼光的是PaLM和Pathways,推出時(shí)間大約在2022年2月到4月之間。同一時(shí)期,OpenAI推出的是InstructGPT,從這里可以看出Google和OpenAI的差距。至于為什么這么說(shuō),你看了后面的內(nèi)容就能理解。DeepMind之前的重點(diǎn)一直在強(qiáng)化學(xué)習(xí)攻克游戲和AI for science等方面,對(duì)LLM的關(guān)注比較晚,大約是在2021年才開始重視這個(gè)方向,目前仍在追趕狀態(tài)。Meta在LLM上的關(guān)注更少,重點(diǎn)一直不在LLM上,目前也在努力追趕。這些機(jī)構(gòu)是目前做得最好的,即便如此,國(guó)內(nèi)的差距也是可以理解的。至于OpenAI關(guān)于LLM的理念是什么,我會(huì)在本文的最后一部分談?wù)勎业恼J(rèn)知。

本文試圖回答一些問(wèn)題:ChatGPT是否帶來(lái)了NLP乃至AI領(lǐng)域的研究范式轉(zhuǎn)換?如果是,那會(huì)帶來(lái)怎樣的影響?LLM從海量數(shù)據(jù)中學(xué)到了什么知識(shí)?LLM又是如何存取這些知識(shí)的?隨著LLM規(guī)模逐步增大,會(huì)帶來(lái)什么影響?什么是In Context Learning?為什么它是一項(xiàng)很神秘的技術(shù)?它和Instruct又是什么關(guān)系?LLM具備推理能力嗎?思維鏈CoT又是怎么做的?等等。通過(guò)閱讀本文,您將對(duì)這些問(wèn)題有一個(gè)答案。

在談到LLM技術(shù)現(xiàn)狀之前,我先宏觀地談一下我心目中的研究范式轉(zhuǎn)換問(wèn)題,這樣我們才能更清晰地理解具體技術(shù)的變化。

如果我們回顧NLP領(lǐng)域的技術(shù)發(fā)展,可能會(huì)發(fā)現(xiàn)兩次大的研究范式轉(zhuǎn)換。第一次轉(zhuǎn)換是從深度學(xué)習(xí)到兩階段預(yù)訓(xùn)練模型,時(shí)間跨度大約是2013年至2020年。在Bert和GPT模型出現(xiàn)之前,NLP領(lǐng)域主要依賴于深度學(xué)習(xí)模型,其中核心技術(shù)是改進(jìn)的LSTM和CNN模型以及Sequence to Sequence+Attention的總體技術(shù)框架。然而,深度學(xué)習(xí)在NLP領(lǐng)域的應(yīng)用并沒(méi)有取得很大的成功,主要原因是數(shù)據(jù)量的限制和特征抽取器的表達(dá)能力不夠強(qiáng)。Bert和GPT模型的出現(xiàn)改變了這一現(xiàn)狀,引領(lǐng)了NLP領(lǐng)域的技術(shù)轉(zhuǎn)變。這種轉(zhuǎn)變帶來(lái)了兩個(gè)影響:一是中間任務(wù)的消亡,二是不同研究方向技術(shù)路線的統(tǒng)一。

第二次轉(zhuǎn)換是從預(yù)訓(xùn)練模型走向通用人工智能(AGI),時(shí)間跨度大約是2020年至今。ChatGPT是這次轉(zhuǎn)換的關(guān)鍵節(jié)點(diǎn),它實(shí)現(xiàn)了理想LLM模型的接口層,讓LLM適應(yīng)人類的習(xí)慣命令表達(dá)方式。這對(duì)于提高LLM的易用性和用戶體驗(yàn)至關(guān)重要。這次轉(zhuǎn)換將進(jìn)一步推動(dòng)LLM模型的發(fā)展,納入更多的研究領(lǐng)域,逐步實(shí)現(xiàn)通用人工智能。

在這個(gè)背景下,很多NLP子領(lǐng)域?qū)⒉辉倬邆洫?dú)立研究的價(jià)值,因?yàn)長(zhǎng)LM模型可以通過(guò)吸收更多的領(lǐng)域知識(shí)來(lái)解決這些問(wèn)題。同時(shí),更多NLP之外的研究領(lǐng)域也將被納入LLM技術(shù)體系,成為通用人工智能的一部分。圖像處理和多模態(tài)任務(wù)是其中的一個(gè)自然選擇。

總的來(lái)說(shuō),LLM模型的發(fā)展趨勢(shì)是追求規(guī)模越來(lái)越大的模型,通過(guò)增加預(yù)訓(xùn)練數(shù)據(jù)的多樣性來(lái)涵蓋更多的領(lǐng)域知識(shí)。人機(jī)接口技術(shù)也將繼續(xù)改進(jìn),讓LLM更好地適應(yīng)人類的表達(dá)方式。這些技術(shù)轉(zhuǎn)變將對(duì)NLP領(lǐng)域和其他研究領(lǐng)域產(chǎn)生深遠(yuǎn)影響。

接下來(lái),我們來(lái)梳理下GPT 3.0之后LLM模型的主流技術(shù)進(jìn)展。

Transformer是一種強(qiáng)大的特征抽取器,通過(guò)預(yù)訓(xùn)練過(guò)程,它可以學(xué)習(xí)到豐富的知識(shí)。這些知識(shí)可以分為語(yǔ)言類知識(shí)和世界知識(shí)兩大類。

語(yǔ)言類知識(shí)包括詞法、詞性、句法、語(yǔ)義等與自然語(yǔ)言理解相關(guān)的知識(shí)。研究表明,Transformer可以學(xué)習(xí)各種層次的語(yǔ)言學(xué)知識(shí),并且這些知識(shí)在模型的不同層次中有所分布。淺層的語(yǔ)言知識(shí)如詞法、詞性、句法等存儲(chǔ)在低層和中層,而抽象的語(yǔ)言知識(shí)如語(yǔ)義類知識(shí)則廣泛分布在中層和高層。

世界知識(shí)指的是關(guān)于真實(shí)事件和常識(shí)性知識(shí)的知識(shí)。研究表明,Transformer可以從訓(xùn)練數(shù)據(jù)中吸收大量的世界知識(shí),并且這些知識(shí)主要分布在中層和高層,尤其集中在中層。隨著模型層數(shù)的增加,LLM可以學(xué)習(xí)到更多的世界知識(shí)。因此,可以將LLM看作是一種以模型參數(shù)體現(xiàn)的隱式知識(shí)圖譜。

對(duì)于訓(xùn)練LLM模型所需的數(shù)據(jù)量,研究表明,對(duì)于語(yǔ)言學(xué)知識(shí)來(lái)說(shuō),使用1000萬(wàn)到1億單詞的語(yǔ)料就足夠了,但要學(xué)習(xí)事實(shí)類知識(shí),則需要更多的訓(xùn)練數(shù)據(jù)。隨著訓(xùn)練數(shù)據(jù)量的增加,預(yù)訓(xùn)練模型在各種下游任務(wù)中的效果也會(huì)越好。因此,從增量的訓(xùn)練數(shù)據(jù)中學(xué)到的更多是世界知識(shí)。

LLM模型將知識(shí)存儲(chǔ)在Transformer的模型參數(shù)中。模型參數(shù)由多頭注意力(MHA)和前饋神經(jīng)網(wǎng)絡(luò)(FFN)兩部分組成。MHA主要用于計(jì)算單詞或知識(shí)之間的相關(guān)強(qiáng)度,并對(duì)全局信息進(jìn)行集成。而FFN部分存儲(chǔ)了具體的知識(shí)。一種觀點(diǎn)認(rèn)為,F(xiàn)FN可以看作是一個(gè)存儲(chǔ)大量具體知識(shí)的Key-Value存儲(chǔ)器。FFN的第一層是Key層,用于識(shí)別輸入中的語(yǔ)言或知識(shí)模式。第二層是Value層,用于存儲(chǔ)與Key層對(duì)應(yīng)的具體知識(shí)。FFN的輸入層是通過(guò)Self Attention得到的整個(gè)輸入句子的整體信息。FFN的正向傳播過(guò)程可以看作是通過(guò)Key層檢測(cè)知識(shí)模式,然后取出對(duì)應(yīng)的Value,并體現(xiàn)在輸出上。

大型語(yǔ)言模型(LLM)技術(shù)精要,不看虧了圖片

修正LLM模型中存儲(chǔ)的知識(shí)有幾種方法。一種方法是從訓(xùn)練數(shù)據(jù)的源頭進(jìn)行修正。通過(guò)追蹤某條知識(shí)對(duì)應(yīng)的訓(xùn)練數(shù)據(jù)源頭,可以刪除相關(guān)的數(shù)據(jù)源,然后重新預(yù)訓(xùn)練整個(gè)LLM模型。另一種方法是對(duì)LLM模型進(jìn)行fine-tuning,根據(jù)新知識(shí)構(gòu)建訓(xùn)練數(shù)據(jù),讓LLM模型在這個(gè)數(shù)據(jù)上進(jìn)行fine-tuning。還有一種方法是直接修改LLM模型參數(shù)中存儲(chǔ)的知識(shí)。這些方法都有各自的優(yōu)缺點(diǎn),需要根據(jù)具體情況選擇合適的方法。

隨著LLM模型規(guī)模的增大,對(duì)于預(yù)訓(xùn)練階段來(lái)說(shuō),增加訓(xùn)練數(shù)據(jù)量和模型參數(shù)規(guī)模是提高模型效果的關(guān)鍵。研究表明,同時(shí)增加訓(xùn)練數(shù)據(jù)量和模型參數(shù)規(guī)模效果最好。此外,隨著模型規(guī)模的增大,LLM在不同類型的任務(wù)上表現(xiàn)也有所不同。對(duì)于知識(shí)密集型任務(wù),隨著模型規(guī)模增大,任務(wù)效果越來(lái)越好。對(duì)于某些任務(wù),隨著模型規(guī)模的增大,任務(wù)效果呈現(xiàn)出U形增長(zhǎng)曲線。對(duì)于一些任務(wù),LLM具備一種"涌現(xiàn)能力",當(dāng)模型規(guī)模足夠大時(shí),任務(wù)效果突然出現(xiàn)性能增長(zhǎng)。這些現(xiàn)象都需要進(jìn)一步深入研究。

In Context Learning和Instruct是兩種不同的任務(wù)描述方式。In Context Learning是通過(guò)給出具體示例來(lái)描述任務(wù),而Instruct是一種更抽象的任務(wù)描述方式。目前的研究表明,LLM可以從給定的示例中學(xué)習(xí)到Instruct的描述,但是關(guān)于LLM是如何實(shí)現(xiàn)這種學(xué)習(xí)的,目前還沒(méi)有確切的答案。

在增強(qiáng)LLM的推理能力方面,目前的研究主要集中在兩個(gè)方向。一種是基于Prompt的方法,通過(guò)合適的提示語(yǔ)或示例來(lái)激發(fā)LLM的推理能力。另一種是在預(yù)訓(xùn)練階段引入程序代碼,以增強(qiáng)LLM的推理能力。這兩種方法可以互相補(bǔ)充,但從長(zhǎng)遠(yuǎn)來(lái)看,增加訓(xùn)練數(shù)據(jù)的多樣性和引入代碼參與預(yù)訓(xùn)練是更為重要的。

基于Prompt的方法在激發(fā)LLM模型推理能力方面有著重要作用。可以將其分為三條技術(shù)路線。

第一種思路是在問(wèn)題上追加輔助推理Prompt。這種方法簡(jiǎn)單直接,但在眾多領(lǐng)域都很有效。具體做法是在問(wèn)題前追加提示語(yǔ),例如"Let’s think step by step",然后將LLM的輸出與問(wèn)題拼接,再追加提示語(yǔ)"Therefore, the answer is",這樣可以大幅增加LLM在各項(xiàng)推理任務(wù)中的效果。

第二種思路是基于示例的思維鏈(Chain of Thought)Prompting。這個(gè)方向是LLM推理研究的主要方向。通過(guò)給出人工編寫的推理示例,詳細(xì)描述每個(gè)推理步驟,讓LLM模型學(xué)會(huì)推理。這種方法可以顯著提升LLM模型的推理能力。

第三種思路體現(xiàn)了一種分治算法的思想。將復(fù)雜的推理問(wèn)題分解成若干容易解決的子問(wèn)題,然后逐步解決子問(wèn)題,最終推導(dǎo)出整個(gè)問(wèn)題的答案。這種思路類似于分治算法,可能是揭示問(wèn)題本質(zhì)、解決LLM復(fù)雜推理問(wèn)題的道路。

此外,加入代碼預(yù)訓(xùn)練可以顯著增強(qiáng)LLM模型的推理能力。通過(guò)在預(yù)訓(xùn)練過(guò)程中加入代碼數(shù)據(jù),可以提升LLM模型在推理任務(wù)中的表現(xiàn)。這可能是因?yàn)榇a數(shù)據(jù)中包含了數(shù)學(xué)類或邏輯推理類的數(shù)據(jù),對(duì)解決下游數(shù)學(xué)推理問(wèn)題有幫助。

總體而言,LLM模型具備推理能力,只是我們需要合適的方法來(lái)激發(fā)它。未來(lái)的研究可以集中在增強(qiáng)LLM的復(fù)雜推理能力、探索LLM在NLP之外領(lǐng)域的應(yīng)用、改進(jìn)人機(jī)交互接口、構(gòu)建高難度的綜合任務(wù)評(píng)測(cè)數(shù)據(jù)集等方向。此外,還可以研究如何提高LLM模型的訓(xùn)練效率,如稀疏化模型等技術(shù)選項(xiàng)。

最后,要注意在復(fù)刻類似ChatGPT的模型時(shí),選擇合適的預(yù)訓(xùn)練模式、引入代碼數(shù)據(jù)進(jìn)行預(yù)訓(xùn)練、注意數(shù)據(jù)質(zhì)量和多樣性、降低模型規(guī)模的同時(shí)保持效果、設(shè)計(jì)易用的人機(jī)交互接口等。這些選擇將有助于實(shí)現(xiàn)強(qiáng)大的LLM模型。

分享到:
標(biāo)簽:LLM
用戶無(wú)頭像

網(wǎng)友整理

注冊(cè)時(shí)間:

網(wǎng)站:5 個(gè)   小程序:0 個(gè)  文章:12 篇

  • 51998

    網(wǎng)站

  • 12

    小程序

  • 1030137

    文章

  • 747

    會(huì)員

趕快注冊(cè)賬號(hào),推廣您的網(wǎng)站吧!
最新入駐小程序

數(shù)獨(dú)大挑戰(zhàn)2018-06-03

數(shù)獨(dú)一種數(shù)學(xué)游戲,玩家需要根據(jù)9

答題星2018-06-03

您可以通過(guò)答題星輕松地創(chuàng)建試卷

全階人生考試2018-06-03

各種考試題,題庫(kù),初中,高中,大學(xué)四六

運(yùn)動(dòng)步數(shù)有氧達(dá)人2018-06-03

記錄運(yùn)動(dòng)步數(shù),積累氧氣值。還可偷

每日養(yǎng)生app2018-06-03

每日養(yǎng)生,天天健康

體育訓(xùn)練成績(jī)?cè)u(píng)定2018-06-03

通用課目體育訓(xùn)練成績(jī)?cè)u(píng)定