3月31日消息,特斯拉首席執行官埃隆·馬斯克(Elon Musk)、蘋果聯合創始人史蒂夫·沃茲尼亞克(Steve Wozniak)以及其他上千名AI研究人員日前簽署公開信,呼吁暫停研究更先進的AI技術。然而,此信遭到許多專家甚至簽名者的質疑,被指加劇AI炒作、簽名造假以及歪曲論文等。
這封公開信由非營利組織“生命未來研究所”(Future of Life Institute)撰寫,其使命是“減少強大技術帶來的全球災難性和生存風險”。具體來說,該研究所專注于減輕人類的長期“生存”風險,比如超級智能AI。馬斯克是該組織的支持者,他在2015年曾向其捐贈了1000萬美元。
信中寫道:“只有在我們確信AI的影響是積極的、風險是可控的情況下,才應該開發更強大的AI系統。因此,我們呼吁所有AI實驗室立即暫停至少6個月訓練比GPT-4更強大的AI系統。AI實驗室和獨立專家應該利用這段時間,共同開發和實施一套高級AI設計和開發的共享安全協議,這些協議由獨立的外部專家嚴格審計和監督。”
這封信還澄清說:“這并不意味著AI發展總體上處于暫停狀態,只是從危險的競賽退回到具有緊急功能的更大、不可預測的黑箱模型。”它指的是微軟和谷歌等大型科技公司之間的AI競賽,這兩家公司在過去一年發布了許多新的AI產品。
其他著名的簽名者包括圖像生成器創企Stability AI首席執行官伊馬德·穆斯塔克(Emad Mostaque)、作家兼歷史學家尤瓦爾·諾亞·哈拉里(Yuval Noah Harari)和Pinterest聯合創始人埃文·夏普(Evan Sharp)等。也有參與AI競賽的公司的員工簽名,包括谷歌姊妹公司DeepMind和微軟。盡管OpenAI開發并商業化了GPT系列AI模型,但沒有人在信上簽名。
盡管經過了驗證過程,但這封信一開始還是有許多虛假簽名者,包括冒充OpenAI首席執行官薩姆·阿爾特曼(Sam Altman)、Meta首席AI科學家雅恩·勒昆(Yann LeCun)的人。之后,生命未來研究所清理了名單,并在驗證每個簽名時暫停了在信上顯示更多簽名。
然而,這封公開信的發布已經引起了軒然大波,受到許多AI研究人員的仔細審查,包括許多簽名者本人。有些簽名者重新改變了自己的立場,有些知名人士的簽名被證明是假的,更多AI研究人員和專家則公開對這封信中的描述和提議的方法表達了反對意見。
紐約大學心理學和神經科學教授加里·馬庫斯(Gary Marcus)說:“這封信并不完美,但其精神是正確的。”同時,Stability AI首席執行官穆斯塔克在推特上表示,OpenAI是一家真正“開放”的AI公司,“所以,我不認為暫停訓練六個月時間是最好的主意,也不同意信中的很多觀點,但這封信中有些地方的確很有趣。”
AI專家批評這封信進一步推動了“AI炒作”,但卻沒有列出或呼吁對當今存在的AI危害采取具體行動。有些人認為,這宣揚了一種長期卻有些不符合實際的觀點,這種觀點被批評為有害和反民主的,因為它對超級富豪更有利,并允許他們在某些理由下采取道德上可疑的行為。
華盛頓大學語言學系教授、公開信開頭所引用論文的合著者艾米麗·本德爾(Emily M. Bender)在推特上寫道,這封信中“充斥著AI炒作”,并濫用了她的研究成果。信中稱:“廣泛的研究表明,具有堪比人類智慧的AI系統可能會對社會和人類構成重大威脅。”但本德爾反駁說,她在研究中特別指出,這種威脅是指目前的大型語言模型及其在壓迫系統中的使用情況,這比公開信中假設的未來AI威脅要具體得多,也更緊迫。
本德爾繼續寫道:“我們在2020年底發布了完整論文,指出這種不考慮風險而急于建立更大語言模型的做法存在問題。但風險和危害從來都不是‘AI過于強大’,相反,它們關乎權力集中在人民手中,關乎重現壓迫體系,關乎對信息生態系統的破壞,關乎對自然生態系統的破壞等。”
AI初創公司Hugging Face的研究科學家薩莎·盧西奧尼(Sasha Luccioni)在接受采訪時表示:“公開信在本質上是一種誤導:讓每個人都注意到大型語言模型被臆想的力量和危害,并提出非常模糊、幾乎無效的解決方案,而不是在此時此刻關注這些危害并解決它們。例如,在涉及LLM的培訓數據和能力時要求更多的透明度,或者要求立法規定在哪里和何時可以使用它們。”
普林斯頓大學計算機科學副教授阿爾溫德·納拉亞南(Arvind Narayanan)表示,這封公開信充滿了AI炒作,“使解決真實的、正在發生的AI危害變得更加困難”。
公開信中提出了幾個問題:“我們是否應該自動化所有工作,包括那些讓人有成就感的工作?我們是否應該培養非人類思維,這些思維最終可能會超過人類智慧并取代我們?我們應該冒著失去對文明控制的風險繼續開發AI嗎?”
對此,納拉亞南說,這些問題都是“無稽之談”,“荒謬無比”。計算機是否會取代人類并接管人類文明,這是一個非常遙遠的問題,是長期主義思維的一部分,它分散了我們對當前問題的注意力。畢竟,AI已經被整合到人們的工作中,減少了對某些職業的需求,而不是一種會讓我們“過時”的“非人類思維”。
納拉亞南還稱:“我認為,這些可以算是合理的長期擔憂,但它們已被反復提及,轉移了人們對當前危害的注意力,包括非常真實的信息安全和安全風險!而解決這些安全風險將需要我們精誠合作。但不幸的是,這封信中的炒作,包括對AI能力和事關人類生存風險的夸大,可能會導致AI模型被更多地束縛,使應對風險變得更加困難。”
不過,許多公開信的簽字人也進行了辯護。研究機構Mila創始人兼科學主任約書亞·本吉奧(Yoshua Bengio)表示,六個月的暫停時間對于包括政府在內的治理機構理解、審計和驗證AI系統是必要的,可以確保這些系統對公眾是安全的。他補充說,目前存在危險的權力集中,AI工具有可能破壞民主的穩定,“民主價值觀和開發這些工具的方式之間存在沖突”。
麻省理工學院NSF AI與基礎交互研究所(IAIFI)物理學教授、未來生命研究所所長馬克斯·泰格馬克(Max Tegmark)表示,最糟糕的情況是,人類將逐漸失去對文明的控制。他說,目前的風險在于,“我們失去了對科技公司中一群未經選舉產生的權力人士的控制,他們的影響力太大了。”
這些評論談到了廣闊的未來,暗示著對失去文明控制的恐懼,但除了呼吁6個月的暫停期之外,沒有談到任何具體措施。
計算機科學家、分布式AI研究所創始人蒂姆尼特·格布魯(Timnit Gebru)在推特上發帖稱,具有諷刺意味的是,他們呼吁暫停訓練比GPT-4更強大的AI模型,但卻未能解決圍繞GPT-4本身的大量擔憂。
【來源:網易科技】