在近日于北京市大興區(qū)盛大舉行的2024T-EDGE創(chuàng)新大會暨鈦媒體財經(jīng)年會上,一場關于生成式AI的深度對話吸引了眾多目光。對話雙方分別是暗物智能DMAI前美國首席執(zhí)行官、藍色光標前美國總裁符海京,以及哈佛大學博士、加州大學伯克利分校人工智能實驗室執(zhí)行董事、Dark Matter AI聯(lián)合創(chuàng)始人及微軟、亞馬遜顧問Mark Nitzberg。
Mark Nitzberg指出,盡管生成式AI在諸如回答復雜問題和生成高質(zhì)量內(nèi)容等任務中表現(xiàn)出色,其仍處在實驗階段,可靠性問題成為阻礙其進一步發(fā)展的主要瓶頸?!爱斍暗哪P托阅苋〉昧司薮筮M步,但我們無法忽視其在關鍵場景中的不一致性,”他強調(diào),“例如,微小的輸入變化可能導致模型輸出的答案產(chǎn)生巨大偏差,這種不確定性在醫(yī)療、交通等高風險領域是無法接受的。”
然而,Mark Nitzberg也提到,生成式AI在一些新興領域展現(xiàn)出了指數(shù)級的效率提升。他分享了瑞典的一項跨行業(yè)研究,其中“建筑修復”領域因應用生成式AI,效率提升了約100倍。盡管如此,他依然保持理性態(tài)度,認為這些效率提升雖令人振奮,但其可持續(xù)性仍取決于能否攻克技術可靠性問題。
Mark Nitzberg進一步強調(diào),將生成式AI引入各個領域時,必須確保對沒有AI時的操作方式有清晰理解。只有這樣,在引入AI并使其更高效、更快速運行時,才不會將之前手動操作中的問題部分也自動化。他提到,生成式AI向智能體的轉(zhuǎn)變潛力巨大,但也伴隨著復雜的技術挑戰(zhàn)和安全隱患,可靠性和控制機制是未來發(fā)展的重要研究方向。
符海京與Mark Nitzberg的對話中,探討了中美在生成式AI領域的現(xiàn)狀。Mark Nitzberg表示,加州大學伯克利分校是全球頂尖的AI實驗室之一,擁有70位教授和超過400名博士生,其中許多是中國籍學生。他提到,AI已經(jīng)融入人類生活的方方面面,但人類實際上仍處于生成式AI的實驗時代,這一切才剛剛開始。
符海京詢問生成式AI如何在不同地理區(qū)域和行業(yè)中產(chǎn)生影響時,Mark Nitzberg解釋,生成式AI的出現(xiàn)有一些關鍵點需要理解。他以水電大壩為例,指出使用看似“智能”的語言模型來控制這類系統(tǒng),需要應用典型的工程方法來限制其行為。然而,這些語言模型本質(zhì)上是一個巨大的電路板,每個旋鈕在訓練過程中都會被調(diào)整,直到得到一個所有旋鈕都調(diào)整好的電路板,這就是現(xiàn)在的語言模型,如GPT-4等。
Mark Nitzberg還提到,這些商業(yè)模型非常強大,能完成許多令人驚訝的任務,如回答復雜問題和生成圖像等,但它們的共同問題是不可靠。他強調(diào),雖然可以在這些模型外面構建一個“安全層”,但很難對其行為提供任何形式的保證,這也在一定程度上限制了它們的應用范圍。
對于創(chuàng)業(yè)者如何在AI轉(zhuǎn)型競賽中取勝的問題,Mark Nitzberg認為,數(shù)字化工具正在為下一代提供應用AI的基礎,而這個領域的應用仍然是“廣闊未定”的。他提到,加州大學舊金山分校醫(yī)療中心正在與他們合作,開發(fā)一種基于患者治療臨床步驟訓練的變換器模型變體,這種訓練方法產(chǎn)生了一種更加“可解釋”的變換器系統(tǒng)。
最后,Mark Nitzberg在談到AI的推理能力時表示,微軟提到的自動化代理是AI從工具型系統(tǒng)向更高級智能體轉(zhuǎn)變的標志。然而,這種轉(zhuǎn)變也帶來了更多的問題,尤其是關于可靠性和安全性的問題。他認為,接下來的研究重點應集中在多模態(tài)數(shù)據(jù)的整合和因果推理的增強上。