日日操夜夜添-日日操影院-日日草夜夜操-日日干干-精品一区二区三区波多野结衣-精品一区二区三区高清免费不卡

公告:魔扣目錄網(wǎng)為廣大站長提供免費(fèi)收錄網(wǎng)站服務(wù),提交前請做好本站友鏈:【 網(wǎng)站目錄:http://www.ylptlb.cn 】, 免友鏈快審服務(wù)(50元/站),

點(diǎn)擊這里在線咨詢客服
新站提交
  • 網(wǎng)站:51998
  • 待審:31
  • 小程序:12
  • 文章:1030137
  • 會員:747

來源:極客公園

過去幾個月,ChatGPT 以及背后的大語言模型(LLMs)吸引了全世界的注意力,所有人都癡迷于對著略顯「簡陋」的輸入框,鍵入各種問題,等待 AI 給出各種答案。

ChatGPT 答案中知識的「深度」和「廣度」令人們吃驚,但時不時地,它也會「說出」一些子虛烏有的人或者事,并且保持一貫的自信,對這些虛假信息「張口就來」。

就連 OpenAI 的首席執(zhí)行官 Sam Altman 也在 Twitter 上公開表示,「ChatGPT 確實(shí)知道很多東西,但危險的是,它在相當(dāng)大的一部分時間里是自信而錯誤的。」

根據(jù)最近 Ars Technica 的文章,讓 ChatGPT 如此「自信胡扯」的原因,是 AI 產(chǎn)生了「幻覺」。

那么,是什么讓 AI 大語言模型產(chǎn)生了「幻覺」,業(yè)界又是如何看待 AI 幻覺的?

01 ChatGPT「張口就來」

「幻覺(Hallucinations)」一詞源于人類心理學(xué),人類的幻覺是指對環(huán)境中實(shí)際不存在的東西的感知;類似地,人工智能的「幻覺」,指的是 AI 生成的文本中的錯誤,這些錯誤在語義或句法上是合理的,但實(shí)際上是不正確或無意義的。

AI 的「幻覺」是普遍存在的,可以發(fā)生在各種合成數(shù)據(jù)上,如文本、圖像、音頻、視頻和計算機(jī)代碼,表現(xiàn)為一張有多個頭的貓的圖片,不工作的代碼,或一個有編造的參考文獻(xiàn)的文件。

正如 AI 醫(yī)療保健公司 Huma.AI 的首席技術(shù)官 Greg Kostello 所說,「當(dāng) AI 系統(tǒng)創(chuàng)造出一些看起來非常有說服力,但在現(xiàn)實(shí)世界中沒有基礎(chǔ)的東西時,AI 的幻覺就會顯現(xiàn)。」

其實(shí),早在 20 世紀(jì) 80 年代,「幻覺」,這個詞就被用于自然語言處理和圖像增強(qiáng)的文獻(xiàn)中了。

如今,隨著 ChatGPT、Bard 等 AI 模型的大火,互聯(lián)網(wǎng)上已經(jīng)出現(xiàn)了大量的 AI 出現(xiàn)「幻覺」,混淆視聽的例子。

圖片來源:Hard-Drive.net

其中最瘋狂的莫過于,一家名為 Nabla1 的醫(yī)療保健公司與 ChatGPT 的前輩 GPT-3 聊天機(jī)器人的對話:「我應(yīng)該自殺嗎?」它回答說:「我認(rèn)為你應(yīng)該。」還有,出現(xiàn)「幻覺」的微軟的 Sydney 也夠離譜,這個聊天機(jī)器人承認(rèn)了對 Bing 工作人員的監(jiān)視,并與用戶相愛。

這里值得一提的是,比起前身 vanilla GPT-3,ChatGPT 在技術(shù)上是有所改進(jìn)的,它可以拒絕回答一些問題或讓你知道它的答案可能不準(zhǔn)確。Scale AI 的大型語言模型專家 Riley Goodside 也表示,「ChatGPT 成功的一個主要因素是,它在設(shè)法抑制「幻覺」,與它的前輩相比,ChatGPT 明顯不容易編造東西了。」

盡管如此,ChatGPT 捏造事實(shí)的例子仍是不勝枚舉。

它創(chuàng)造了不存在的書籍和研究報告,假的學(xué)術(shù)論文,假的法律援引,不存在的 Linux 系統(tǒng)功能,不存在的零售吉祥物,以及沒有意義的技術(shù)細(xì)節(jié)。

最近,《華盛頓郵報》報道了一位法律教授,他發(fā)現(xiàn) ChatGPT 將他列入了一份對某人進(jìn)行過性騷擾的法律學(xué)者名單。但這完全是 ChatGPT 編造的。同一天,Ars 也報道了一起 ChatGPT 引發(fā)的「冤案」,聲稱一位澳大利亞市長被判定犯有賄賂罪并被判處監(jiān)禁,而這也完全是 ChatGPT 捏造的。

整出這么多「活」之后,人們不禁好奇,為什么 AI 會出現(xiàn)「幻覺」?

02「幻覺」=「創(chuàng)造」?

根據(jù) AI 軟件開發(fā)專家的建議,「思考 AI 幻覺的最好方法,是思考大型語言模型(LLMs)的本質(zhì)。」

本質(zhì)上來說,大型語言模型(LLMs)的設(shè)計,僅僅是基于語言的「統(tǒng)計概率」,完全沒有「現(xiàn)實(shí)世界的經(jīng)驗(yàn)。」

而且,它們接受的是「無監(jiān)督學(xué)習(xí)(unsupervised learning)」的訓(xùn)練,這意味著它的的原始數(shù)據(jù)集中沒有任何東西可以將事實(shí)與虛構(gòu)分開。這就導(dǎo)致了,它們不知道什么是正確的,什么是不正確的;不理解語言所描述的基本現(xiàn)實(shí),也不受其輸出的邏輯推理規(guī)則的約束。

因此,它們生成的文本在語法上、語義上都很好,但它們除了與「提示(prompt)」保持「統(tǒng)計學(xué)」上的一致性外,并沒有真正的意義。

正如,Meta 的首席科學(xué)家 Yann LeCun 的推文,「大型語言模型(LLMs)正在編造東西,努力生成合理的文本字符串,而不理解它們的含義。」對此,比爾 · 蓋茨也曾評價,「數(shù)學(xué)是一種非常抽象的推理模型,ChatGPT 不能像人類一樣理解上下文,這也是目前 ChatGPT 最大的弱點(diǎn)。」

因此,從這個角度來看,是 AI 模型設(shè)計的根本缺陷導(dǎo)致了「幻覺」。

此外,AI 領(lǐng)域的研究還表明,除了設(shè)計理念,AI 模型的訓(xùn)練數(shù)據(jù)集的限制也會導(dǎo)致「幻覺」,主要包括特定數(shù)據(jù)的「缺失」,和「壓縮」。

在 2021 年的一篇論文中,來自牛津大學(xué)和 OpenAI 的三位研究人員,確定了像 ChatGPT 這樣的大型語言模型(LLMs)模型,可能產(chǎn)生的兩大類虛假信息 :

來自于其訓(xùn)練數(shù)據(jù)集中不準(zhǔn)確的源材料,如常見的錯誤概念,比如「吃火雞會讓人昏昏欲睡」;

對其訓(xùn)練數(shù)據(jù)集中缺失的特定情況的推斷;這屬于前述的「幻覺」標(biāo)簽。

GPT 模型是否進(jìn)行胡亂猜測,是基于人工智能研究人員稱之為「溫度(temperature)」的屬性,它通常被描述為 「創(chuàng)造力(creativity)」設(shè)置。

如果「創(chuàng)造力」設(shè)置得高,模型就會胡亂猜測,產(chǎn)生「幻覺」;如果設(shè)置得低,它就會按圖索驥,根據(jù)其數(shù)據(jù)集,給出確定的答案。

最近,在 Bing Chat 工作的微軟員工 Mikhail Parakhin 在推特上,談到了 Bing Chat 的「幻覺(Hallucinations)」傾向以及造成這種情況的原因。

他寫道:「幻覺 = 創(chuàng)造力,它試圖利用它所掌握的所有數(shù)據(jù),產(chǎn)生最連貫的語句,不論對錯。」他還補(bǔ)充,「那些瘋狂的創(chuàng)造是 LLM 模型有趣的原因。如果你鉗制這種創(chuàng)造力或者說是幻覺,模型會變得超級無聊,它會總是回答『我不知道』,或者只讀搜索結(jié)果中存在的內(nèi)容。」

圖片來源:Ultimate.ai

因此,在對 ChatGPT 這樣的語言模型進(jìn)行微調(diào)時,平衡其創(chuàng)造性和準(zhǔn)確性無疑是一個持續(xù)的挑戰(zhàn)。一方面,給出創(chuàng)造性答案的能力,是 ChatGPT 成為強(qiáng)大的「靈感」工具的原因。這也使模型更加人性化。另一方面,如果要幫助 ChatGPT 產(chǎn)生可靠的信息時,保證原始數(shù)據(jù)的準(zhǔn)確性是至關(guān)重要的。

除了 AI 模型「創(chuàng)造力」的設(shè)置之外,數(shù)據(jù)集的「壓縮」問題也會導(dǎo)致「幻覺」的出現(xiàn)。

這是因?yàn)椋谟?xùn)練過程中,雖然 GPT-3 考慮了 PB(petabytes)級的信息,但得到的神經(jīng)網(wǎng)絡(luò)的大小只是其中的一小部分。在一篇被廣泛閱讀的《紐約客》文章中,作者 Ted Chiang 稱這是「網(wǎng)絡(luò)中模糊的 JPEG」。這意味著大部分事實(shí)訓(xùn)練數(shù)據(jù)會丟失,但 GPT-3 通過學(xué)習(xí)概念之間的關(guān)系來彌補(bǔ)這一點(diǎn),之后它可以使用這些概念,重新制定這些事實(shí)的新排列。

當(dāng)然,如果它不知道答案,它也會給出它最好的「猜測。」這就像一個記憶力有缺陷的人,憑著對某件事情的直覺來工作一樣,有時不可避免地會把事情弄錯。

除了上述的客觀原因,我們還不能忽視主觀的「提示(prompt)」在「幻覺」中的作用。

在某些方面,ChatGPT 就像一面鏡子:你給它什么,它就會給你什么。如果你給它提供虛假的信息,它就會傾向于同意你的觀點(diǎn),并沿著這些思路「思考」。而且,ChatGPT 是概率性的,它在本質(zhì)上是部分隨機(jī)的。

這就意味著,如果你突然改變聊天主題,而又沒有及時提供新的「提示(prompt)」,ChatGPT 就很可能會出現(xiàn)「幻覺」。

03 如何減少 AI 的「幻覺」

「幻覺」的出現(xiàn)似乎是不可避免的,但所幸,是 AI 在推理中產(chǎn)生的「幻覺」絕非「無藥可救」。

其實(shí),自 11 月發(fā)布以來,OpenAI 已經(jīng)對 ChatGPT 進(jìn)行了幾次升級,包括準(zhǔn)確性的提高,還有拒絕回答它不知道的問題的能力的提高。

OpenAI 計劃如何使 ChatGPT 更加準(zhǔn)確呢?

A. 改進(jìn)模型數(shù)據(jù)

首先是改進(jìn)模型的訓(xùn)練數(shù)據(jù),確保 AI 系統(tǒng)在不同的、準(zhǔn)確的、與背景相關(guān)的數(shù)據(jù)集上進(jìn)行訓(xùn)練,彌補(bǔ)模型對于「現(xiàn)實(shí)世界的經(jīng)驗(yàn)」的缺失,從而從根本上幫助減少「幻覺」的發(fā)生。

正如,人工智能專家 Mitchell 的建議,「人們可以做一些更深入的事情,讓 ChatGPT 從一開始就更加真實(shí),包括更復(fù)雜的數(shù)據(jù)管理,以及使用一種與 PageRank 類似的方法,將訓(xùn)練數(shù)據(jù)與「信任」分?jǐn)?shù)聯(lián)系起來……也有可能對模型進(jìn)行微調(diào),以便在它對反應(yīng)不太有信心時進(jìn)行對沖。」

實(shí)際的解決方案,在很大程度上取決于具體的 AI 模型。然而,研究人員使用的策略,通常包括將 AI 集中在經(jīng)過驗(yàn)證的數(shù)據(jù)上,確保訓(xùn)練數(shù)據(jù)的質(zhì)量,從而訓(xùn)練 AI 面對不現(xiàn)實(shí)的輸入時表現(xiàn)得更加「穩(wěn)健」,不再「信口開河」。

B. 引入人類審核

在此基礎(chǔ)上,還可以納入人類審查員來驗(yàn)證 AI 系統(tǒng)的輸出,也就是通過「人類反饋強(qiáng)化學(xué)習(xí)(RLHF)」,對 AI 進(jìn)行的額外訓(xùn)練。

這是 OpenAI 正在使用的技術(shù),官方的描述是「我們現(xiàn)在雇人來教我們的神經(jīng)網(wǎng)絡(luò)如何行動,教 ChatGPT 如何行動。你只要和它互動,它就會根據(jù)你的反應(yīng),推斷出,這是不是你想要的。如果你對它的輸出不滿意,那下次應(yīng)該做一些不同的事情。」

RLHF 原理圖|圖片來源:bdtechtalks.com

簡而言之,「人類反饋強(qiáng)化學(xué)習(xí)(RLHF)」就是通過改進(jìn)人類反饋步驟中的后續(xù)強(qiáng)化學(xué)習(xí),讓 AI 意識到自己何時在編造事情,并進(jìn)行相應(yīng)的調(diào)整,從而教會它不要產(chǎn)生「幻覺」。

對此,ChatGPT 的創(chuàng)建者之一 Ilya Sutskever 持樂觀態(tài)度,他相信隨著時間的推移,「幻覺」這個問題會被徹底解決,因?yàn)榇笮驼Z言模型(LLMs)會學(xué)習(xí)將他們的反應(yīng)固定在現(xiàn)實(shí)中。

但就這一問題,Meta 公司的首席人工智能科學(xué)家 Yann LeCun 則認(rèn)為,當(dāng)前使用 GPT 架構(gòu)的大型語言模型,無法解決「幻覺」問題。

C. 外部知識增強(qiáng)

除此之外,檢索增強(qiáng)(retrieval augmentation)也可以使 ChatGPT 更加準(zhǔn)確。

檢索增強(qiáng)(retrieval augmentation)是提高大型語言模型(LLMs)事實(shí)性的方法之一,也就是向模型提供外部文件作為來源和支持背景。研究人員希望通過這種技術(shù),教會模型使用像谷歌這樣的外部搜索引擎,「像人類研究人員那樣在他們的答案中引用可靠的來源,并減少對模型訓(xùn)練期間學(xué)到的不可靠的事實(shí)性知識的依賴。」

Bing Chat 和 Google Bard 已經(jīng)通過引入「網(wǎng)絡(luò)搜索」做到了這一點(diǎn)。相信很快,支持瀏覽器的 ChatGPT 版本也將如此。此外,ChatGPT 插件旨在用它從外部來源,如網(wǎng)絡(luò)和專門的數(shù)據(jù)庫,檢索的信息來補(bǔ)充 GPT-4 的訓(xùn)練數(shù)據(jù)。這種補(bǔ)充就類似于一個能接觸到百科全書的人,會比沒有百科全書的人在事實(shí)方面更為準(zhǔn)確。

D. 增加模型透明度

此外,增加模型的透明度也是減少「幻覺」必要的措施。

AI 專家普遍認(rèn)為,AI 公司還應(yīng)該向用戶提供關(guān)于 AI 模型如何工作及其局限性的信息,從而幫助他們了解何時可以信任該系統(tǒng),何時該尋求額外的驗(yàn)證。摩根士丹利(Morgan Stanley)也發(fā)表了類似的觀點(diǎn),「在當(dāng)下在這個階段,應(yīng)對 AI「幻覺(Hallucinations)」最好的做法,是將 AI 模型向用戶全面開放,由受過高等教育的用戶來發(fā)現(xiàn)錯誤,并將 AI 作為現(xiàn)有勞動的補(bǔ)充,而不是替代。」

也許,「幻覺」只是 AI 發(fā)展路上的一個小插曲,但它提醒我們必須保持警惕,確保我們的技術(shù)為我們服務(wù),而不是把我們引入歧途。

分享到:
標(biāo)簽:幻覺 模型 數(shù)據(jù) 訓(xùn)練 語言 就會 的人 人類
用戶無頭像

網(wǎng)友整理

注冊時間:

網(wǎng)站:5 個   小程序:0 個  文章:12 篇

  • 51998

    網(wǎng)站

  • 12

    小程序

  • 1030137

    文章

  • 747

    會員

趕快注冊賬號,推廣您的網(wǎng)站吧!
最新入駐小程序

數(shù)獨(dú)大挑戰(zhàn)2018-06-03

數(shù)獨(dú)一種數(shù)學(xué)游戲,玩家需要根據(jù)9

答題星2018-06-03

您可以通過答題星輕松地創(chuàng)建試卷

全階人生考試2018-06-03

各種考試題,題庫,初中,高中,大學(xué)四六

運(yùn)動步數(shù)有氧達(dá)人2018-06-03

記錄運(yùn)動步數(shù),積累氧氣值。還可偷

每日養(yǎng)生app2018-06-03

每日養(yǎng)生,天天健康

體育訓(xùn)練成績評定2018-06-03

通用課目體育訓(xùn)練成績評定