在近日于北京市大興區盛大舉行的2024T-EDGE創新大會暨鈦媒體財經年會上,一場關于生成式AI的深度對話吸引了眾多目光。對話雙方分別是暗物智能DMAI前美國首席執行官、藍色光標前美國總裁符海京,以及哈佛大學博士、加州大學伯克利分校人工智能實驗室執行董事、Dark Matter AI聯合創始人及微軟、亞馬遜顧問Mark Nitzberg。
Mark Nitzberg指出,盡管生成式AI在諸如回答復雜問題和生成高質量內容等任務中表現出色,其仍處在實驗階段,可靠性問題成為阻礙其進一步發展的主要瓶頸。“當前的模型性能取得了巨大進步,但我們無法忽視其在關鍵場景中的不一致性,”他強調,“例如,微小的輸入變化可能導致模型輸出的答案產生巨大偏差,這種不確定性在醫療、交通等高風險領域是無法接受的。”
然而,Mark Nitzberg也提到,生成式AI在一些新興領域展現出了指數級的效率提升。他分享了瑞典的一項跨行業研究,其中“建筑修復”領域因應用生成式AI,效率提升了約100倍。盡管如此,他依然保持理性態度,認為這些效率提升雖令人振奮,但其可持續性仍取決于能否攻克技術可靠性問題。
Mark Nitzberg進一步強調,將生成式AI引入各個領域時,必須確保對沒有AI時的操作方式有清晰理解。只有這樣,在引入AI并使其更高效、更快速運行時,才不會將之前手動操作中的問題部分也自動化。他提到,生成式AI向智能體的轉變潛力巨大,但也伴隨著復雜的技術挑戰和安全隱患,可靠性和控制機制是未來發展的重要研究方向。
符海京與Mark Nitzberg的對話中,探討了中美在生成式AI領域的現狀。Mark Nitzberg表示,加州大學伯克利分校是全球頂尖的AI實驗室之一,擁有70位教授和超過400名博士生,其中許多是中國籍學生。他提到,AI已經融入人類生活的方方面面,但人類實際上仍處于生成式AI的實驗時代,這一切才剛剛開始。
符海京詢問生成式AI如何在不同地理區域和行業中產生影響時,Mark Nitzberg解釋,生成式AI的出現有一些關鍵點需要理解。他以水電大壩為例,指出使用看似“智能”的語言模型來控制這類系統,需要應用典型的工程方法來限制其行為。然而,這些語言模型本質上是一個巨大的電路板,每個旋鈕在訓練過程中都會被調整,直到得到一個所有旋鈕都調整好的電路板,這就是現在的語言模型,如GPT-4等。
Mark Nitzberg還提到,這些商業模型非常強大,能完成許多令人驚訝的任務,如回答復雜問題和生成圖像等,但它們的共同問題是不可靠。他強調,雖然可以在這些模型外面構建一個“安全層”,但很難對其行為提供任何形式的保證,這也在一定程度上限制了它們的應用范圍。
對于創業者如何在AI轉型競賽中取勝的問題,Mark Nitzberg認為,數字化工具正在為下一代提供應用AI的基礎,而這個領域的應用仍然是“廣闊未定”的。他提到,加州大學舊金山分校醫療中心正在與他們合作,開發一種基于患者治療臨床步驟訓練的變換器模型變體,這種訓練方法產生了一種更加“可解釋”的變換器系統。
最后,Mark Nitzberg在談到AI的推理能力時表示,微軟提到的自動化代理是AI從工具型系統向更高級智能體轉變的標志。然而,這種轉變也帶來了更多的問題,尤其是關于可靠性和安全性的問題。他認為,接下來的研究重點應集中在多模態數據的整合和因果推理的增強上。