日日操夜夜添-日日操影院-日日草夜夜操-日日干干-精品一区二区三区波多野结衣-精品一区二区三区高清免费不卡

公告:魔扣目錄網為廣大站長提供免費收錄網站服務,提交前請做好本站友鏈:【 網站目錄:http://www.ylptlb.cn 】, 免友鏈快審服務(50元/站),

點擊這里在線咨詢客服
新站提交
  • 網站:51998
  • 待審:31
  • 小程序:12
  • 文章:1030137
  • 會員:747

最強對話式 AI,站在巨人的肩膀上。

來源:Web3天空之城(Web3SkyCity)

作者:城主

鏈接:

AIGC 在這幾個月成了一個大熱的話題。

頗有些風水輪流轉的感覺,如同年初大火特火的 web3 一樣, AIGC 是現在的當紅炸子雞, 創業投資討論里如果不帶點 AIGC 就是妥妥的落伍。

不久之前,備受關注的開源 AI 繪畫模型 Stable Diuffusion 推出了 2.0 版, 引起了更多關注和焦慮:「我連 1.0 的門道都還沒摸清楚,怎么就 2.0 了啊」

沒有跟上 AIGC 的步伐,仿佛就要被世界所拋棄。

有趣的是,作者前面看到一些 AIGC 文章,基本都是圍繞著最近大熱的 AI 繪畫來討論的。

當然了,生成式 AI 繪畫模型的突破是一件值得大書特書的事情,在作者上一篇文章《AI 繪畫何以突飛猛進? 從歷史到技術突破,一文讀懂火爆的 AI 繪畫發展史》里也已經做了深入的探討。

但是,必須指出的是,當下在 AI 繪畫或者 AI 生成其他形式內容的大模型里,對自然語言的理解是一個首要的關鍵環節,而之所以 AI 繪畫能火爆出圈,有至少一半的功勞必須歸結于,當下最新的 AI 繪畫模型可以直接「理解」用戶的語言輸入,以及在模型內部里把語言內容理解和圖像內容理解緊密結合起來。

生成式 AI 就像人工智能皇冠上的一顆明珠,不是唯一的一顆,但絕對璀璨耀眼。盡管 AI 在信息分析處理等各個方面都發揮著重要作用,但「生成式 AI」的出現無疑影響更深遠:生成即創造。生成式 AI 的突破,意味著 AI 開始走向了創造新內容世界的大道。

羅馬不是一天建成的。就讓我們一起回顧和嘗試理解,這激動人心的一切究竟是怎么發生的。

01

ChatGPT 橫空出世

在回顧歷史前,首先要跟風提一下幾天前發布的 ChatGPT,一個絕對神仙級別的自然語言生成式 AI。

ChatGPT 誕生的重要意義恐怕不亞于 Stable Diffusion 等 AI 繪畫生成模型的出現。有興趣的朋友可以感受去 chat.openai.com 感受一下這個當今最熱沒有之一的自然語言問答式 AI 的巨大威力。

ChatGPT 是明星人工智能公司 OpenAI 的 GPT 自然語言生成式模型的最新衍生品。在這之前,坊間已經傳聞 OpenAI 的下一代自然語言生成模型 GPT4 即將出現。而且,有一個讓人震驚的江湖傳言:GPT4 據稱通過了圖靈測試!

圖靈測試究竟是什么意思? 簡單的說,就是隔著一個小黑屋問各種話題,然后是否能分辨小黑屋里回答問題的究竟是機器還是人類。如果無法辨別,就就說明了機器具有和人一樣等級的智能,通過了圖靈測試。

迄今為止,還沒有 AI 模型能真正通過圖靈測試。看來臨界點已經到,筆者都迫不及待的期待 GPT4 的真正推出了。

誰知道,還沒等來 GPT-4,衍生自 GPT-3.5 的 ChatGPT 卻先來了。

顧名思義,ChatGPT 就是「聊天 GPT」,以對話的方式交互,用戶問問題,它來回答。

咋聽起來,似乎也沒有很新鮮。 但情況是,ChatGPT 的智能化遠遠超出了那些它的聊天 AI 前輩們。

好比 StableDiffusion/Midjourney 也就是 AI 繪畫,但所能生成的 AI 繪畫質量甩了前輩無數條街。

網上有越來越多的文章開始安利 ChatGPT,不過多是拿了外網英文問答的截圖,其實 ChatGPT 可以直接上中文!另外,可以直接問 ChatGPT 怎么寫代碼,比如寫一個俄羅斯方塊。

而更有想象力的,是讓 ChatGPT 來生成 AI 繪畫的輸入關鍵詞!讓 AI 自己來指導 AI 作畫,多美妙的主意。

這僅僅是一個開始,隨著 ChatGPT 在全網的各種自來水安利,相信還有更多古靈精怪的玩法不斷被網友們挖掘出來。

ChatGPT 的回答給人的感覺是,這是一個特別靠譜的聊天 AI,真正的上知天文下知地理,最關鍵的是,它不胡說八道!正因為它回答的準確性,看起來 ChatGPT 有了替代通用搜索引擎 google 的可能性。

OpenAI 的 CEO 薩姆?阿爾特曼(Sam Altman)對 ChatGPT 的未來發展表示很有信心。他在推特上說,語言接口是未來的一個發展方向,OpenAI 只是一個先行者,相信很快大家就能用上真正智能的提供建議的 AI 助手了。

測試版的 ChatGPT 仍有一些缺點,但這都只是戰術級別的;在戰略上,ChatGPT 的前景已經相當令人期待,特別是 OpenAI 下一代 GPT-4 加持下的 ChatGPT,其能力恐怕更加突破天際。

我們也許正在經歷又一個 AI 突破的時刻,一如 2022 年初到年中 AI 繪畫的勢如破竹。 而這次,則是人類通用信息生成的突破!

喜歡刨根問底的讀者們會問,AI 是如何走到這一步的?

02

大算力,大數據,

大力出奇跡

2006 年,杰弗里·辛頓(Geoffrey Hinton)在 science 期刊上發表了重要的論文《Reducing the dimensionality of data with neural.NETworks》,提出深度信念網絡(Deep Belief Networks,DBNs),「深度學習」正式誕生,基于人工神經網絡的第三次 AI 發展浪潮開始了,且一直延續至今。

和前兩次浪潮不同的是,當下計算機性能已經能讓大規模的人工神經網絡模擬得以成為現實。在 1957 年,羅森布拉特用 IBM 704 去仿真感知機,每秒完成 1.2 萬次浮點加法,而如今超級計算機速度是 IBM 704 的 10 萬億倍以上。

此外,個人計算機 GPU 近些年發展迅猛,盡管 GPU 的初衷是為了加速 3D 圖形計算,但通用 GPU 的計算模式正好匹配了神經網絡并行計算的需求特點,從而進一步推動了神經網絡模型的發展。

除了算力之外,限制前兩次 AI 浪潮發展的另一主要因素就是數據的缺乏。

在深度學習理論模型提出之后,最早之一意識到了 AI 學科發展的數據鉗制,并著手去解決的是華人 AI 科學家李飛飛。

年輕的李飛飛以堅韌不拔的大無畏精神,推動完成了一個超大規模的開源圖片標注數據庫,這就是著名的 Image Net 項目。在 2009 年正式發布時,Image Net 有超過 1000 萬數據,兩萬多個類別。

2010 年開始,Image Net 大規模視覺識別挑戰賽(ILSVCR)開始舉辦,全世界圖像領域深度學習的專家們同臺競技和交流,從此拉開了計算機視覺的新篇章。

雖然本文主要是關注自然語言大模型的前世今生的,而 Image Net 完全是圖像領域的工作。 但是,Image Net 的出現和發展給了自然語言 AI 模型研究一個很重要的啟發。這就是圖像領域深度學習的預訓練概念。

大家都知道,「深度學習」顧名思義,就是具有很多層級的神經網絡模型。現代神經網絡模型的網絡結構層數很深,動則幾百萬上千萬參數量。 而這些神經網絡模型在能做特定任務之前,都是需要經過「訓練」,即根據標注好的特定訓練數據去反復調整模型里的參數,最后所有參數調整到位,模型能匹配訓練數據集的輸入和輸出。

那么,問題來了,要調整深度學習神經網絡模型里那成千萬的參數量,如果訓練數據少了,肯定很難調整到位。這就好比一個內部齒輪復雜精密的新機器,如果只稍微動一下,內部能牽扯到的齒輪機構說不定都很少,達不到磨合的目的;只有大規模長時間運轉起來,內部的齒輪才能全速轉起來,互相磨合好。

但是,那些特定的 AI 任務往往沒有那么多訓練數據,這怎么辦?

非常值得慶幸的是,AI 科學家研究發現了深度學習網絡一個有趣的特性,對于圖像領域的深度學習神經網絡而言,不同層級的神經元學習到的是不同邏輯層級的圖像特征!

如上圖所示,若將訓練好的網絡每層神經元學習到的特征可視化,會發現最底層的神經元學習到的是線段等特征,第二層學到的是人臉各個五官的特征,第三層學到的是人臉輪廓的特征,這三層構成了人臉特征的邏輯層級結構。神經網絡越底層的特征越基礎抽象,比如什么邊角弧線等,而越往上層,就具體和任務相關。

一個訓練好的深度學習網絡的內部參數,在底層體現了通用和基礎的特征,而越到高層,越和特定任務相關。這是深度學習神經網絡一個特別棒的特性。

人們開始動腦筋了,既然是這樣,那么是不是可以先用標準的大數據集比如 Image Net 來做深度學習網絡的「預訓練」呢? 反正那么多層的神經網絡里,大多數的層級都和特定任務關系不大,我們只需要把通用大數據預訓練得到的網絡模型結果,再結合任務相關的那點可憐的標注數據去微調(Fine-tuning)高層的網絡參數,使得高層參數輸出更匹配當前領域的任務,就 OK 了。

這樣一來,原本因為數據不足而無法訓練的特定任務也能解決了。即便任務的訓練數據不缺,先通過預訓練過程也能極大的加快特定任務訓練的完成速度。預訓練這種通吃的解決方案人見人愛,很快在圖像處理領域廣泛流行開來。

既然在圖像處理領域的深度學習里預訓練這么管用,搞自然語言處理 AI 的同學們自然也會在心里想,為什么不在自然語言處理領域里做預訓練這么香的事情呢?

03

自然語言 AI

的深度進化

首先,自然語言處理的研究里,有個基本概念叫做「語言模型」,大致理解起來也簡單,就是想辦法打造一個核心函數 P,這個函數通過一個句子里前面的所有單詞來計算下一個單詞的概率大小。一句話里的單詞總是順序出現的, 每個單詞都可以通過前面所有單詞計算出這么一個概率,把所有這些單詞的概率乘起來,總概率數值越大,說明這越像是人說出的話。

怎么構造這個神奇的函數 P 是 AI 科學家的事情,但讀者們一定可以明白,有了這個牛的「語言模型」函數 P,計算機就會說人話了。

而從神經網絡學派的同學看來,是不是可以用神經網絡來打造這樣一個語言模型呢?就是說用很多的現成語料,來訓練出一個神經網絡,然后給這個神經網絡模型輸入一句話的前面幾個詞,這個模型就能計算出這句話的下一個單詞。

這就是大名鼎鼎的「神經網絡語言模型」NNLM。

NNLM 神經網絡語言模型的想法并不是最近冒出來的,它的歷史要追溯到 20 年前。NNLM 的論文在 2003 年就被發表出來了,而當時,深度學習的概念還只存在于杰弗里·辛頓(Geoffrey Hinton)的腦袋里。

所以,不幸的是,NNLM 當時沒有引起學界多少反響,被埋沒了近 10 年。事實上,在深度學習大火之前,用神經網絡做自然語言處理甚至會被笑話,之前自然語言處理的主流研究方式還是基于統計學的機器學習方法。神經網絡語言模型 NNLM 這個概念太超前時代了。

一直到了 2013 年,在深度學習概念提出來 7 年之后,深度學習神經網絡模型先是在圖像和語音領域大顯神威,自然語言 AI 的同學終于想起了這篇十年前的論文。NNLM 重出江湖, 為世人所知:

在 2013 年,AI 研究人員倒騰了一個自然語言處理的處理模型 word2Vec。 顧名思義,「Word2Vec」就是「Word to Vector,從詞到向量」。研究人員的目標是把一個單詞變成一個數學向量,這個數學量在 NLP 里有個專門的名詞,叫做 Word Embedding(詞嵌入)

為啥要變成一個向量,出發點也很簡單,如果能將每個單詞都能表示為數學空間里的一個向量,那么是不是理論上,在這個向量空間里比較接近的詞,就是意義接近的單詞呢? 這樣計算機不就可以方便的理解單詞之間的聯系了嗎?

Word2Vec 翻出了十年前的 NNLM。NNLM 的初衷只是想構建一個神經網絡語言模型,根據前面的詞,來預測后一個是什么詞。NNLM 網絡內部構造了一個隨機初始化的矩陣,通過不斷的訓練,來達成 NNLM 模型預測單詞的目的。

特別湊巧的是,研究人員發現這個訓練出來的內部矩陣的每一行,正好可以作為每個詞的嵌入向量 Word Embedding!這真是得來全不費功夫啊。

NNLM 和 Word2Vec 使用了類似的神經網絡結構,不過因為目的不同,其訓練方法理念是截然不同的。NNLM 作為語言模型,是要看到上文預測下文,所以訓練時輸入的是句子上文單詞;而 Word2Vec 呢? 因為它的目標是要找出所有單詞之間意義遠近的數學關系,所以訓練時都使用句子上文和下文作為輸入。

不知道讀者意識到沒,這兩種訓練方式在更高的意義上有著一些本質區別,就好比我們人類說話,都是順序說出來一個個單詞的,說不定呢,人的潛意識或許也是一個類似 NNLM 的 P 函數,自覺不自覺地的決定人說話里的下一個詞是什么。因此只從上文預測下文的訓練方式,貌似天然更契合「生成式」的邏輯。

而 Word2Vec 這種通過上文和下文輸入來訓練的方式,可以比喻成機器來做閱讀理解,就像是我們做語文或英語的閱讀理解,一定是通讀全文,然后根據上下文來理解和判斷問題的答案。這樣的人工智能,就是所謂分析式的 AI。

兩種模型訓練的思路,在后續發展里變成了自然語言模型的兩種路線。本文開頭提到的 OpenAI 生成式模型 GPT 系列,堅定的只用上文進行訓練,用以追求「純粹」的生成;而 Google 公司的大語言模型 Bert,則采用了上文和下文一起訓練的模式,此乃后話。

前面提到,圖像處理領域里使用大規模通用數據進行「預訓練」所取得的效率和成果實在讓人羨慕,而在自然語言處理領域里,其實也有一點點「預訓練」概念的,這個預訓練就是,每個單詞的 Word Embedding 可以反過來初始化神經網絡的內部參數。

不去探究數學細節,讀者只要知道,這種「預訓練方式」和前面圖像處理領域的低層級網絡預訓練方式有點類似,但問題是利用 Word Embedding 只能初始化第一層網絡參數,和圖像處理領域的預訓練能有效初始化大多數網絡層級不可同日而語,只能說是一種比較原始初級的「預訓練」了

但直到 2018 年前,這就是 NLP 領域里能采用的預訓練典型做法了。

采用 Word Embedding 來初始化 NLP 神經網絡有那么點效果,但沒有期待的那么好。這里面還有一個邏輯上的原因:一個單詞有多義詞問題。所以企圖在一個數學空間里用一個固定的數學向量來表征一個單詞的意義,還要求含義相近的單詞都聚在一起。 在面對多義詞的時候, 這在邏輯上顯然就是矛盾的。

當然了,聰明的 AI 研究人員肯定還是有辦法。既然一個單詞存在多義性,固定的 Word Embedding 向量無法表達單詞的多個含義,那么是不是可以先訓練好一個單詞的 Word Embedding,然后在實際使用中,根據句子里的上下文語義去動態調整這個 Word Embedding 數值,這樣經過調整后的「動態 Word Embedding」 更能準確表達單詞在上下文的具體含義,同時自然的,解決了多義詞的問題。

這個根據當前上下文來動態調整 Word Embedding 的想法就是頂級學術會議 NAACL 2018 年的最佳論文「Deep Contextualized Word Representation」,這個 NLP 模型命名為 ELMO(Embedding from Language Models,基于語言模型的詞嵌入)

ELMO 引入上下文動態調整單詞 Word Embedding 后,多義詞問題就被徹底解決了,而且比預期的解決得還好:利用 ELMO 改進過的多種不同 NLP 任務,性能上都有幅度不同的提升,最高達到了 25%,不愧是最佳論文。

此外,ELMO 還有一個貢獻,研究人員發現 ELMO 所使用的深度神經網絡模型里,不同層次提取到的特征是有差異的。看到這里,讀者想起了什么沒有? 是不是和圖像預訓練的模型層級特征有點像了?

讓我們復習一下,前面講過,圖像處理領域進行大規模預訓練后,把深度學習網絡每層參數做可視化后可以看到,深度學習網絡每一層都對應著不同抽象層級的「特征」,在圖像領域里,就是從底層的線段,到中間層的具體五官細節,再到高層的臉型,等等。

再說一次,「預訓練」為什么是一個特別重要的概念? 這是因為好的「預訓練」可以直接利用大量標準通用的的訓練數據(圖像領域就是圖片,NLP 領域就是語料),把深度學習模型調整到了 90% 甚至更高程度的可用狀態,預訓練好的模型最后通過任務相關的少量訓練數據,就能微調至完全勝任各種特定任務,這真是一個很美妙的事情。

那么,ELMO 出現后,自然語言處理領域的「預訓練」有可能趕上圖像領域了嗎?

遺憾的是,還差一口氣。

因為技術原因,LEMO 模型在抽取文字特征方面還比較弱,這是一個技術上的缺陷,意味著這個模型就無法很好完成 NLP 的「預訓練」夢想: 特征都抽取不好,怎么讓網絡里每一層具體表達不同邏輯層級的特征呢。而從技術細節上對比,也會發現 ELMO 這種「預訓練」方法和圖像領域的預訓練方法,兩者在模式上還有很大差異。

自然語 AI 研究人員還需要繼續找到一個方法,希望這個方法能很好的提取出文字的特征,就類似圖像處理領域的神經網絡模型,能很好的提取圖像不同邏輯層面的特征。

恰就在時間剛好的 2017 年底, Google 研究人員發表了一篇里程碑式的論文, 這一篇論文提出的「自我注意力」機制讓自然語言處理揭開了嶄新的篇章。

04

注意力機制

和 Transformer

2017 年 12 月,Google 在頂級機器學習會議 NIPS 上發表了論文《Attention is all you need》,提出在機器翻譯上大量使用自注意力(Self Attention)機制來學習文本表示,并把這種機制模型起了個霸氣的名字:Transformer。

這篇論文一經出世就橫掃了整個自然語言處理學術界,Transformer 迅速的取代了深度學習里傳統的循環神經網絡(RNN)成為了之后的大語言模型的標準配置。

Transformer 是目前 NLP 領域里最強的特征提取器,本質上 Transformer 是一個疊加的「自注意力機制」構成的深度網絡。

包括我們現在所知道的 OpenAIGPT 系列模型,以及 GoogleBERT 系列模型,都受到了這篇文章的啟發采用了部分 Transformer 的架構,從而取得了突破性的效果。

先說個題外話,筆者感慨,論文是否牛,一看題目就知道,這篇論文連題目都如此特別和霸氣。

話說回來,什么是注意力機制? 深度學習里的注意力機制其實是一種思想,參考借鑒了人類的注意力思維方式。

視覺注意力機制是人類視覺所特有的大腦信號處理機制,我們的眼睛會快速掃描全局圖像,得到需要重點關注的區域,就是所謂的注意力焦點后,再進一步對相關區域投入更多的關注。這是人類在長期進化中獲得的一種生存機制,極大提高了人類信息處理的效率和準確性。

深度學習的注意力機制在概念上參照了人類的視覺注意力機制,核心目標就是從眾多信息里選擇出對當前任務更重要和關鍵的信息。

具體到 NLP 自然語言處理領域里,在之前,注意力機制一般是指輸出句子里某個詞和輸入句子每個詞之間的相似度。這也很好理解,就是去尋求問題(輸入)和答案(輸出)之間的關系么。

但 Google 這篇《Attention is all you need》的特別之處,是明確指出了,我們其實不需要先考慮輸入和輸出的關系啊,為什么不參考人類理解語言的方式,首先「學習」一句話內部單詞之間的關系呢? 這就是所謂的「SelfAttention 自注意力機制」:指的是輸入元素之間,或者輸出元素之間的內在聯系機制。

如上圖所示,Self Attention 自注意力機制尋找到了一個句子里單詞之間的語義特征,「it」指代的是「the animal」

稍微想一下,Self Attention 自注意力機制在邏輯意義上非常清晰,它讓機器去理解人類語言每句話里單詞之間的語義關系。

除了邏輯上看起來更有道理,Self Attention 機制還附帶了一個很大的好處:因為網絡層面拋棄了傳統的 RNN(循環神經網絡)模型,徹底規避了 RNN 不能很好并行計算的困擾,極大提高了模型并行訓練計算的效率。更不用說,Attention 注意力機制只關注部分信息,參數較少,容易訓練。

有趣的是,谷歌研究人員在這篇重要論文里差點使用了「注意力網絡」這樣的命名,只是他們覺得這個名字聽起來實在不夠響亮,后來團隊里一位工程師給起了個名字 Transformer,這看起來就高大上很多了。

基于自我注意力機制的 Transformer 模型的出現是革命性的,最最重要的一點,它能實現自我監督學習。所謂自我監督,就是不需要標注的樣本,使用標準的語料或者圖像,模型就能學習了。

在 Tranformer 出現之前,我們要訓練一個深度學習模型,必須使用大規模的標記好的數據集合來訓練神經網絡。對數據進行標注只能人工進行,金錢和時間成本都相當高。

讀者如果還有印象,在筆者上一篇關于 AI 繪畫的文章里有講到,對于 AI 繪畫至關重要的跨模態模型 CLIP 之所以成功,是因為它使用了互聯網已經帶文字標記的圖片作為訓練數據,巧妙規避了超大規模數據標記的難題。

而回過頭來,Transformer 的核心是在數學上計算輸入元素之間的關聯(Attention),通過這種模式,Tranformer 成功的消除了訓練數據集的標注需求!

這簡直是感天動地,我們可以想象一下,從今以后,互聯網上或者企業數據庫里海量的文本數據都能直接成為大模型的訓練數據源了。

NVIDIA 創始人兼 CEO 黃仁勛在 2022 NVIDIA GTC 大會上表示說,Transformer 使自我監督學習成為可能,并無需人類標記數據,AI 領域出現了「驚人的進展」。因此,Transformer 正在越來越多的領域中發揮作用。比如用于語言理解的 Google BERT,用于藥物發現的 NVIDIA MegaMolBART 以及 DeepMind 的 AlphaFold2 都要追溯到 Transformer 的突破。

上面又提到了 Google BERT 語言模型。這里要插一句,Google 引以為傲的語言大模型 BERT 的架構和 OpenAI GPT 其實非常像,但有一個簡單而本質的區別,在訓練階段,Google BERT 輸入上文和下文來訓練,OpenAI GPT 系列一直堅持只輸入上文訓練,而結果就是,Google BERT 在體現 AI 分析能力的各種閱讀理解等問題上,都表現上佳;而 OpenAIGPT 術業有專攻,在生成式 AI(比如回答各種問題,創造各種文字內容)上一騎絕塵。

不夸張的說,Transformer 是迄今為止發明的最強大的模型之一。斯坦福研究人員在 2021 年 8 月的一篇論文把 tranformer 稱之為「基礎模型「(Foundation model),認為它推動了 AI 整個范式的轉變。

Transformer 技術的應用面|英偉達

05

GPT-3,神功初成

受 Google 論文啟發,基于 Transformer 模式的 GPT 系列模型作為 OpenAI 的當紅炸子雞,風頭當下無兩。

GPT 全稱是「Generative Pre-Training」,直譯過來就是「生成式的預訓練」,有意思吧。

如前文所說,OpenAI 對 GPT 的生成式 AI 有堅定的信念,因此在訓練模型的時候,只選用「上文」來訓練模型,也就是說,GPT 本質上是一個極致的概率模型,它根據上文提示,來猜測下一個單詞應該是什么。

這個堅持雖然在一開始 GPT-1 和 GPT-2 時代讓其輸出效果稍遜于同期 Google 的語言大模型 BERT,但到了 GPT-3 時期,在超級規模網絡參數的加持下,GPT 這個 100% 純粹的生成式 AI 終于迸發出耀眼的光芒,模型輸出效果甚至大幅超越了研究人員的預期。

盡管沒有實證,但筆者很傾向認為 GPT-3 的極大成功和 OpenAI 堅定不移的只用上文來訓練模型有著某種必然的關系,人的語言溝通也從來都是按順序表達的,沒有誰先把一句話的最后一個詞說完才回頭考慮上一個詞。從這點來看,GPT 系列模型順應了人類思考的邏輯,最終由量變推動了質變。

終于,借助了 Transformer, GPT 這樣的超大規模語言模型(GPT-3 有 1750 億個參數)在不需要標記數據的情況下,可以借助現成的海量標準數據以及超級算力,得到通用的「預訓練」版本模型。

可能有讀者會繼續問,有了預訓練好的模型版本后,GPT 怎么能以適應各種各樣的特定任務(或者專業一點,「下游任務」)呢? GPT 論文里給出了簡單的改造施工圖,附在這里讀者們有點直觀感性感知即可。總之通過簡單的改造操作,GPT 就能很好適應不同的任務。只需要在輸入部分調整一下就可以了,非常方便。

補充一句,或許正是因為改造特別方便,OpenAI 的研究人員才能在 GPT-3.5 版之上改造出一個問答專用的 ChatGPT。雖然還不是基于大殺器 GPT4,但 ChatGPT 所展現出的超強內容生成能力,在這幾天已經在大眾用戶群體里刮起了超級旋風。

06

從 GPT-3 到

ChatGPT,進化繼續

在歷史長河里走了過來,終于回到了本文開頭的主角 ChatGPT。

如果讀者已經理解了前面關于深度學習神經網絡的變遷和發展之路,再來看 ChatGPT 的技術升級,就是特別簡單的事情了。

ChatGPT 是基于 GPT-3.5 模型的魔改。GPT-3.5 和 GPT-3 的區別呢,首先是和微軟合作,在微軟的 Azure AI 云服務器上完成了訓練;另一個重要的區別是其訓練數據集里除了文字,還加入了代碼,因此 ChatGPT 現在已經可以寫程序,甚至給現成的代碼找 bug 了。

為什么試用過 ChatGPT 的同學都感覺提升很明顯? 一個重要的原因是 ChatGPT 引入了一個新的訓練方法 RLHF(論文《Training language models to follow instructions with human feedback》發表于 22 年 3 月),簡單的說,就是用人類反饋的方式加強訓練。

看這個簡單的描述顯然不能感受到技術的提升,不過我們只需要理解, 這其實就是在 GPT-3 的大數據預訓練之下,再次加強了人類的反饋。

有趣的是,前面基于 Transformer 的通用大數據無監督訓練模式把自然語言的自動學習做到了某種極致,而這個 RLHF 又重新撿起了「手動檔」人類反饋機制,貌似有一點返璞歸真的感覺。 仿佛是武功高手練至化境之后,又重新拿起了最早的野球拳,一招使出了無與倫比的超越功力。

ChatGPT 還有一個很重要的特點,就是針對輸出有效性上做了非常好的調整。使用過 ChatGPT 的同學一定能感覺到,ChatGPT 并非每一個問題都能回答詳盡,但它絕對沒有胡說八道,ChatGPT 的回答和真實世界的情況是相當一致的。做到這點很不容易,也是 ChatGPT 和之前容易亂說一氣的問答 AI 模型前輩最大的不同。

另一個和確保回答有效性同樣值得關注的改進是,ChatGPT 在道德約束上做得很出色。如果我們去詢問一些逾越了道德邊界的問題,或者一些特別敏感的問題, ChatGPT 基本都能察覺和回避。這讓我們想起了 AI 繪畫大模型最讓人詬病的地方,那就是通過 AI 生成 18 禁圖片,盡管這不是一個技術問題,但對于一個智能內容生成平臺,我們顯然要有方法管理好內容的質量,以及內容的道德邊界。在這一點上,ChatGPT 帶了一個好頭。

ChatGPT 的試用版在 OpenAI 的 RLHF 論文發出半年之后剛剛推出,根據 OpenAI 研究人員自己的說法,內部經過了大量調優,而且即使當下,ChatGPT 還是有很多需要改進的地方。但無論如何,ChatGPT 已經展示給我們所有人,自然語言生成式 AI 所能達到的全新高度。

筆者特別憧憬 GPT4 的 ChatGPT 改版。 如果如傳說那般,GPT4 已然突破了圖靈測試,筆者對基于 4.0 版本的 ChatGPT 抱有無限的期待。說不定,作者在上一篇文章里預言的,AI 大模型來寫長篇玄幻小說的時代,馬上就要來臨了。

07

后記

如果能耐著性子讀到這里,讀者應該自然語言的生成式 AI 的前世今生有了一點概念。

回過頭來再問一次,對于「預訓練」這個深度模型里的重要概念。讀者有沒有想過,預訓練到底是什么?

對,具體而言,預訓練就是在幾千億參數的支持下,類似 GPT 這樣的超級模型灌入了難以計量的文本訓練數據(說不定已經把全世界可以搜刮到的文本都拿來用了)來訓練得到了一個通用大語言模型。

不過,在更高的一個角度去暢想,當我們把全世界的文字信息直接灌進擁有數千億參數的 AI 模型里,模型在網絡的各個層級上抽取和記憶這些文字里的特征信息。那么,GPT 這樣的超級模型實際上就在通過所謂預訓練方式,學習到了人類所有文字信息的全部特征,直接把人類的語言智慧記在了自己幾千億量級的神經網絡大腦里。

做到了這種程度,真的就像是我們用人類的全部知識體系來培養出了一個超級強大的機器大腦,這個大腦通過它超大規模的人工神經網絡規模接納學習了人類創造的所有內容。進而,針對人類的任意問題,AI 可以做出連圖靈測試都無法區分的真正智能回答。

人類已經馬上無法分辨,在小黑屋后面,那究竟是一個人還是一個 AI 了。

這一天來得比想象更快。

一個能容納和理解人類全部文字知識,并做出真正智能回答的 AI,我們是不是可以簡單認為:

今天,真正的機器智能,已然誕生。

*頭圖來源:OpenAI

極客一問

你如何看待 ChatGPT?

分享到:
標簽:ChatGPT
用戶無頭像

網友整理

注冊時間:

網站:5 個   小程序:0 個  文章:12 篇

  • 51998

    網站

  • 12

    小程序

  • 1030137

    文章

  • 747

    會員

趕快注冊賬號,推廣您的網站吧!
最新入駐小程序

數獨大挑戰2018-06-03

數獨一種數學游戲,玩家需要根據9

答題星2018-06-03

您可以通過答題星輕松地創建試卷

全階人生考試2018-06-03

各種考試題,題庫,初中,高中,大學四六

運動步數有氧達人2018-06-03

記錄運動步數,積累氧氣值。還可偷

每日養生app2018-06-03

每日養生,天天健康

體育訓練成績評定2018-06-03

通用課目體育訓練成績評定