讓答案變得更可信,圖技術(shù)將成為大語言模型(英文:Large Language Model,縮寫LLM)發(fā)展的下一個落腳點。
回溯大模型的加速發(fā)展,需要將時間線推回到去年12月,ChatGPT在全球范圍內(nèi)現(xiàn)象級爆火。用戶側(cè)拉動市場側(cè)迅速爆發(fā),截至目前,全球已出現(xiàn)近百個大語言模型。
而當(dāng)國內(nèi)數(shù)十個大模型出現(xiàn)后,ChatGPT的關(guān)注度也在被迅速瓜分。根據(jù)SimilarWeb數(shù)據(jù),前期ChatGPT的訪問量增長率驚人,1月份的環(huán)比增長率為131.6%,后期則隨著時間的推移增長率逐漸放緩。6月份ChatGPT網(wǎng)站的全球桌面和移動流量比5月份下降了9.7%,而ChatGPT網(wǎng)站的獨立訪問量下降了5.7%。Sameweb數(shù)據(jù)顯示,訪問者在網(wǎng)站上花費的時間也下降了8.5%。
而ChatGPT的使用率逐漸降低,和其難以保證的準確率密不可分。許多用戶均在社交平臺中反饋到,目前AI聊天過程中有時會收到似乎正確但細讀卻十分荒謬的答案,又或者是微調(diào)提問的方式會得到完全不同的答案,更有甚者會提供混亂的信息,此類信息難以直觀發(fā)現(xiàn),需要一定的行業(yè)知識才能發(fā)現(xiàn)。
事實上,正確性已成為所有大語言模型在發(fā)展中不可回避的問題。尤其當(dāng)大模型需要應(yīng)用到醫(yī)療、健康、保險、銀行、金融、工業(yè)制造等行業(yè)的業(yè)務(wù)場景中時,則對容錯率的要求近乎0。因為一旦大模型提供錯誤甚至有偏差的信息,都有可能引起巨大的法律責(zé)任或公關(guān)危機。
所以,從現(xiàn)實發(fā)展看,大語言模型戰(zhàn)場的廝殺必將進入下一階段——讓答案擺脫一本正經(jīng)地胡說八道,變得100%可信。
一本正經(jīng)地胡說八道,成為大模型的最大漏洞之一
筆者咨詢大模型業(yè)內(nèi)人士后了解到:目前流行的大模型主要以GPT類模型為主流,此類模型大多為純解碼器結(jié)構(gòu),使用n-gram方法,基于參數(shù)為Θ的神經(jīng)網(wǎng)絡(luò)建模,根據(jù)前k個單詞來預(yù)測第k+1個單詞。在海量語料上的預(yù)訓(xùn)練過程中,模型可以學(xué)習(xí)到語料中的語言規(guī)律、有效信息等,從而可以在生成階段根據(jù)給定的提示輸出合理的相關(guān)信息。
但是,實際應(yīng)用過程中,大模型的“幻覺”現(xiàn)象已成為阻礙其廣泛運用的關(guān)鍵原因。
“幻覺”現(xiàn)象指模型以很高的自信輸出錯誤或不可信結(jié)果,當(dāng)模型有“幻覺”時,其使用的訓(xùn)練數(shù)據(jù)并不能證明輸出的合理性。這背后,或許和大模型復(fù)雜多樣且充滿錯誤的語料庫存在關(guān)聯(lián)。國際知名分析機構(gòu)Gartner在最新研報中指出:“ChatGPT的使用不能列出引用來源,其可靠性大多基于來源信息。但是這些來源可能本身是錯誤的、前后矛盾的。”同時,騰訊集團高級執(zhí)行副總裁湯道生在某次公開演講中也坦言道:“目前通用大模型一般都是基于廣泛的公開文獻與網(wǎng)絡(luò)信息來訓(xùn)練的,網(wǎng)上的信息可能有錯誤、有謠言、有偏見,許多專業(yè)知識與行業(yè)數(shù)據(jù)積累不足,導(dǎo)致模型的行業(yè)針對性與精準度不夠,數(shù)據(jù)噪音大。”
由此可見,解決“幻覺”現(xiàn)象成為大模型發(fā)展的關(guān)鍵門檻,尤其是對大模型的行業(yè)應(yīng)用而言,只要存在1%的偏差,都將給企業(yè)埋下風(fēng)險的種子,成為落地的門檻。
在此背景下,圖技術(shù)則有機會打破僵局,給出自己的正確答案。
讓關(guān)聯(lián)成為破局關(guān)鍵
如果說大模型是喚醒數(shù)據(jù)的一個重要“鬧鈴”,能夠讓企業(yè)的沉默數(shù)據(jù)通過分析釋放出業(yè)務(wù)價值,那么圖技術(shù)則是鬧鈴上的關(guān)鍵指針,利用結(jié)構(gòu)化且有序的數(shù)據(jù)關(guān)聯(lián)讓沉默數(shù)據(jù)釋放價值合理化,從底層賦能大語言模型變得更高效、更精準、更智能。
文中,我們首先明確圖技術(shù)的概念。圖技術(shù)以“點-邊”為數(shù)據(jù)結(jié)構(gòu)直觀簡潔地描述業(yè)務(wù)實體之間的復(fù)雜關(guān)聯(lián)關(guān)系,以復(fù)雜關(guān)聯(lián)關(guān)系的存儲、查詢、計算性能優(yōu)化為第一設(shè)計原則,能夠從圖結(jié)構(gòu)數(shù)據(jù)中挖掘出有價值的知識或規(guī)律來指導(dǎo)業(yè)務(wù)決策。
而在大模型研發(fā)和應(yīng)用過程,圖技術(shù)能夠減少幻覺的發(fā)生。
上文已經(jīng)提過大模型的應(yīng)用原理大多圍繞著 Transformer技術(shù),通過訓(xùn)練數(shù)據(jù)來凝結(jié)成泛化的知識,進而沉淀出下一個字符。但大模型無法回憶出事實,且會生成具有錯誤事實的表述。
而圖技術(shù)則基于圖論,一種用于研究圖(由頂點和邊組成的數(shù)據(jù)結(jié)構(gòu))及其性質(zhì)的數(shù)學(xué)理論,通過結(jié)構(gòu)化的關(guān)聯(lián)數(shù)據(jù)進行計算和分析。當(dāng)圖技術(shù)與大模型深度融合后,能夠?qū)⒋笳Z言模型中的泛化知識抽象出來用于創(chuàng)建知識圖譜,借助數(shù)據(jù)關(guān)聯(lián)有效捕捉實體之間的關(guān)系,從而更深入推理、檢索和分析數(shù)據(jù)之間的邏輯關(guān)系,有效提升加強大模型的知識理解、精準輸出和邏輯推理能力,彌補大模型在邏輯上的漏洞,以實現(xiàn)大語言模型和其他生成式 AI 結(jié)果的準確性、可解釋性和透明性。
客觀來說,借助圖技術(shù),當(dāng)前白熱化的大模型競賽將邁進下一個里程碑。
圖技術(shù)將成下一輪大模型競賽的入場券
技術(shù)的比拼看似漫長,實則瞬息即變,入局者需要手握更多可能。放眼當(dāng)前大模型和圖技術(shù)深度結(jié)合的國際市場,我們能夠窺見一些未來。
關(guān)注國外,我們能夠發(fā)現(xiàn)海外主流的大模型均已經(jīng)開始使用圖技術(shù)來管理Context和 Prompt,并將圖的概念深度融合到預(yù)訓(xùn)練的過程當(dāng)中,使傳統(tǒng)的大模型具備更加優(yōu)秀的推理、邏輯以及可解釋的能力。據(jù)了解,圖數(shù)據(jù)庫頭部廠商Neo4j已宣布與 Google Cloud 的大語言模型Vertex AI 達成合作,企業(yè)客戶能夠利用Google Cloud Platform中的Neo4j產(chǎn)品構(gòu)建知識圖譜,以獲得更準確、透明和可解釋的生成式 AI 見解。學(xué)術(shù)領(lǐng)域,國外對于大模型與行業(yè)知識圖譜相關(guān)論文研究也處于國際前沿。
相較于國外圖技術(shù)的率先落地,國內(nèi)的大模型廠商尚未在圖技術(shù)領(lǐng)域形成大規(guī)模的投入,但是也有圖技術(shù)廠商積極探索兩者之間的技術(shù)結(jié)合和應(yīng)用落地。
圖數(shù)據(jù)庫準獨角獸創(chuàng)鄰科技憑借行業(yè)領(lǐng)先的技術(shù)理念與實踐經(jīng)驗率先發(fā)力,于2023年年初首發(fā)公布“正式接入百度文心一言能力,打造圖分析人工智能全系產(chǎn)品,以實現(xiàn)圖智能分析”。并且在近期,創(chuàng)鄰科技再度和華為最新發(fā)布的盤古大模型達成合作,共同推進圖技術(shù)和大模型的聯(lián)合發(fā)展。據(jù)了解,創(chuàng)鄰科技后續(xù)將深入圖技術(shù)和各類大模型的結(jié)合,充分發(fā)揮國產(chǎn)Galaxybase圖數(shù)據(jù)庫的高性能、易擴展、實時性等優(yōu)勢,打破國內(nèi)圖技術(shù)和通用大模型與行業(yè)大模型的落地瓶頸。
總結(jié)
對于大模型而言,克服“幻覺”現(xiàn)象已成為不得不做的事,而圖技術(shù)必將成為克服該挑戰(zhàn)的關(guān)鍵因子。在大模型的角斗場里,和圖技術(shù)的結(jié)合也將成為大模型廠商新的入場券。
如果你想了解更多創(chuàng)鄰科技Galaxybase圖技術(shù)在大模型領(lǐng)域的實踐和成果,歡迎關(guān)注創(chuàng)鄰科技Galaxybase公眾號留言咨詢,我們攜手共同尋找新的大模型增長點。