(ChinaZ.com) 11 月 10 日消息:歷史學家兼著名作者尤瓦爾·赫拉利近日向《衛報》表示,人工智能(AI)的復雜性使其潛在危險難以預測,并可能引發具有「災難性」后果的金融危機。
圖源備注:圖片由AI生成,圖片授權服務商Midjourney
赫拉利在談及 AI 模型安全測試時提出,預見一個強大系統可能造成的所有問題是一個挑戰。他指出,與核武器不同,人工智能涉及許多危險場景,每個場景發生的可能性都相對較小,但總體上構成了對人類文明生存的存在威脅。
《人類簡史》系列圖書的作者赫拉利,一直對 AI 發展持有關注態度。他表示,上周在布萊切利園舉行的全球 AI 安全峰會上,多國政府的聯合聲明是一個「非常重要的進步」。領先的政府們聚集在一起,表達了對技術的擔憂,并采取了相應行動。
他特別提到,這次峰會能夠使不僅是歐盟、英國、美國,甚至包括中國政府在內的國家簽署聲明,這是一個非常積極的跡象。他強調,如果沒有全球合作,將極難(如果不是不可能的話)遏制 AI 最危險的潛在威脅。
峰會最后達成了一個協議,包括英國和美國的 10 個政府、歐盟以及包括 ChatGPT 開發商 OpenAI 和谷歌在內的主要 AI 公司,將合作測試先進的 AI 模型,在它們發布之前和之后進行。
赫拉利指出,AI 模型的安全測試問題在于預見一個強大系統可能造成的所有問題。「AI 與人類歷史上的所有先前技術不同,因為它是第一種可以自行做出決策、自行創造新想法、自行學習和發展的技術。幾乎可以肯定的是,即使是創造了這項技術的人類,也極難預見所有潛在的危險和問題。」
赫拉利指出,政府在向公眾解釋 AI 的危險時,引用了 AI 系統幫助制造生化武器的威脅,但還有其他可能的場景值得關注。他特別指出,金融領域非常適合應用人工智能系統——「這是 AI 的理想領域,因為它僅涉及數據」——并可能成為嚴重 AI 造成危機的源頭。
赫拉利進一步警告說:「如果 AI 不僅被賦予更大的控制權來管理世界的金融系統,而且開始創造只有 AI 能理解的新金融工具,沒有人類能夠理解呢?」他補充說,2007-08 年金融危機是由幾乎無人理解且因此監管不足的債務工具(如抵押債務義務)引起的。
赫拉利指出:「AI 有潛力創造比債務抵押債券 (CDO) 等債務工具復雜數個數量級的金融工具。想象一下,我們有一個沒有人能夠理解的金融系統,因此也無法進行監管。然后發生了金融危機,沒有人知道發生了什么。」
上個月,英國政府提出了對一種先進 AI 模型可能構成的存在威脅的擔憂,該模型可能通過控制和操縱金融系統造成威脅。但赫拉利表示,AI 引發的金融危機不會直接摧毀人類文明。他補充說:「至少不是直接的。但如果它引發了某種戰爭或沖突,可能會間接地造成災難性風險——經濟的、社會的、政治的——但本身我不會將其描述為存在主義風險?!?/p>
這位以色列作者支持暫停先進 AI 發展六個月的呼聲,并支持使人工智能公司對其產品造成的損害負責。他表示,焦點不應該是具體的法規,而應該是擁有技術知識并能快速應對新突破的監管機構。
赫拉利強調:「我們需要盡可能快地創建強大的監管機構,能夠識別并對危險做出反應,這基于我們無法預先預測所有危險和問題并提前立法的理解?!顾a充說:「這應該是主要努力方向,而不是現在就寫一些非常長且復雜的規定,這些規定可能在通過議會或國會時已經過時。」
在這一構架中,AI 安全研究所應聘請了解 AI 對世界金融潛在影響的專家,赫拉利說。
上個月,英國首相里希·蘇納克宣布成立英國 AI 安全研究所,緊隨其后,白宮也宣布計劃成立類似機構,兩者都有望在測試先進 AI 模型中發揮關鍵作用。在峰會上發言的蘇納克表示,英國需要首先了解先進模型的能力,然后再引入法律應對。