亞馬遜云科技(AWS)近期在拉斯維加斯舉行的re:Invent 2024大會(huì)上,推出了一款旨在解決AI模型產(chǎn)生幻覺(jué)問(wèn)題的新工具,引發(fā)了業(yè)界的廣泛關(guān)注。
這款名為“自動(dòng)推理檢查”的工具,通過(guò)交叉驗(yàn)證客戶(hù)提供的信息,來(lái)確保AI模型輸出的準(zhǔn)確性。AWS宣稱(chēng),這是業(yè)界首個(gè)也是唯一一個(gè)專(zhuān)門(mén)針對(duì)AI幻覺(jué)問(wèn)題的防護(hù)措施。然而,也有聲音指出,微軟在今年早些時(shí)候推出的“校正”功能與“自動(dòng)推理檢查”在功能上頗為相似,都能標(biāo)記出AI生成文本中可能存在的事實(shí)錯(cuò)誤。同樣,谷歌的Vertex AI平臺(tái)也提供了一個(gè)工具,允許客戶(hù)通過(guò)引入第三方數(shù)據(jù)、自有數(shù)據(jù)集或谷歌搜索,來(lái)提升模型回答的可信度。
“自動(dòng)推理檢查”工具是AWS Bedrock模型托管服務(wù)的一部分,特別是與Guardrails工具相結(jié)合,它試圖深入探究模型得出結(jié)論的過(guò)程,并驗(yàn)證答案的正確性。客戶(hù)可以上傳信息以構(gòu)建一個(gè)事實(shí)基礎(chǔ),然后“自動(dòng)推理檢查”會(huì)根據(jù)這些信息創(chuàng)建規(guī)則,這些規(guī)則經(jīng)過(guò)優(yōu)化后可以應(yīng)用于模型。
當(dāng)AI模型生成回答時(shí),“自動(dòng)推理檢查”會(huì)對(duì)其進(jìn)行驗(yàn)證。如果模型出現(xiàn)了幻覺(jué),即給出了錯(cuò)誤的答案,該工具會(huì)利用之前建立的事實(shí)基礎(chǔ)來(lái)得出正確答案,并將這個(gè)正確答案與模型的錯(cuò)誤答案一同呈現(xiàn)給客戶(hù),以便客戶(hù)了解模型偏離正確答案的程度。
AWS透露,普華永道已經(jīng)開(kāi)始使用“自動(dòng)推理檢查”來(lái)為其客戶(hù)設(shè)計(jì)AI助手。AWS的AI和數(shù)據(jù)副總裁Swami Sivasubramanian表示,這種類(lèi)型的工具正是吸引客戶(hù)選擇Bedrock的關(guān)鍵因素之一。
然而,有專(zhuān)家對(duì)此持謹(jǐn)慎態(tài)度。據(jù)Techcrunch報(bào)道,有專(zhuān)家指出,試圖完全消除生成式AI的幻覺(jué)是非常困難的,就像試圖從水中去除氫一樣。AI模型之所以會(huì)產(chǎn)生幻覺(jué),是因?yàn)樗鼈儽举|(zhì)上并不具備“知識(shí)”。它們是基于統(tǒng)計(jì)的系統(tǒng),通過(guò)識(shí)別數(shù)據(jù)中的模式,并根據(jù)之前的經(jīng)驗(yàn)來(lái)預(yù)測(cè)下一個(gè)數(shù)據(jù)點(diǎn)。因此,AI模型的輸出并不是真正的答案,而是對(duì)問(wèn)題應(yīng)該如何回答的預(yù)測(cè),這種預(yù)測(cè)存在一定的誤差范圍。
盡管AWS聲稱(chēng)“自動(dòng)推理檢查”使用“邏輯準(zhǔn)確”和“可驗(yàn)證的推理”來(lái)得出結(jié)論,但該公司并未提供具體的數(shù)據(jù)來(lái)證明該工具的可靠性。這一聲明引發(fā)了業(yè)界對(duì)于該工具實(shí)際效果的進(jìn)一步關(guān)注和討論。