這次,科幻電影快要趕不上現(xiàn)實了
作者 | 連冉
編輯 | 鄭玄
即將上映的好萊塢科幻電影《AI 創(chuàng)始者》中,一個原本為人類服務的人工智能在洛杉磯引爆了核彈。
比電影更加科幻的是,現(xiàn)實中,AI 公司們已經(jīng)開始擔憂起這樣的場景真的出現(xiàn)在現(xiàn)實世界。
近日,OpenAI表示出于對 AI系統(tǒng)安全性的考慮,公司正在成立專門團隊應對前沿 AI 可能面臨的「災難性風險」,其中包括核威脅。
事實上,其 CEO Sam Altman 一直擔憂 AI 可能對人類構成「滅絕性」威脅,此前曾在包括美國國會咨詢的多個場合下呼吁加強 AI 類的監(jiān)管。不過,包括 Meta 科學家 Yann LeCun 在內(nèi)的一批科學家則對 AI 監(jiān)管持不同觀點,后者認為當前 AI 能力仍然有限,過早監(jiān)管不僅只會讓大公司受益,也會扼殺創(chuàng)新。
這突顯了業(yè)內(nèi)對前沿 AI 監(jiān)管仍存在分歧。監(jiān)管過早可能會制約技術發(fā)展,但缺乏監(jiān)管又將難以應對風險。如何在技術先行和防范監(jiān)管間取得平衡,使 AI 既高效發(fā)展又安全可控,仍然屬于業(yè)界難題。
01
AI,前沿還是危險
近日,OpenAI 在一份更新中表示,出于對 AI 系統(tǒng)安全性的考慮,公司正在組建新團隊「準備就緒(Preparedness)」來跟蹤、評估、預測「前沿模型」的發(fā)展,以防止所謂的「災難性風險」,包括網(wǎng)絡安全問題以及化學、核和生物威脅。
圖片來源:OpenAI 官網(wǎng)
該團隊將由 Aleksander Madry 領導,他任 MIT 可部署機器學習中心主任一職,目前處于休假期間。
此外,該團隊的任務還包括制定和維護「風險知情開發(fā)政策」,該政策將詳細闡釋 OpenAI 構建 AI 模型評估和監(jiān)控工具的方法、公司的風險緩解行動以及監(jiān)督整個模型開發(fā)流程的治理結構。該政策旨在補充 OpenAI 在 AI 安全領域的工作,并保持部署前后的安全性與一致性。
OpenAI 提出,管理前沿 AI 模型的可能的災難性風險需要回答以下幾個關鍵問題:
-
前沿 AI模型被誤用的危險性大小?
-
如何建立健全的監(jiān)測、評估、預測和防范前沿 AI模型危險能力的框架?
-
如果前沿 AI模型被盜用,惡意行為者可能會如何利用它們?
OpenAI 在更新中寫道:「我們相信…將超越目前最先進模型的前沿 AI 模型,有可能造福全人類…但它們也會帶來越來越嚴重的風險。」
最近一段時間,OpenAI 不斷強調(diào) AI的安全問題,并開展了一系列公司層面、輿論層面、甚至政治層面的行動。
此前在 7 月 7 日,OpenAI 宣布成立一個新團隊,旨在探索引導和控制「超級 AI」的方法,團隊由 OpenAI 聯(lián)合創(chuàng)始人兼首席科學家 Ilya Sutskever 和 Alignment 負責人 Jan Leike 共同領導。
Sutskever 和 Leike 曾預測,超過人類智慧的人工智能將在 10 年內(nèi)出現(xiàn),他們稱,這種人工智能不一定是善良的,因此有必要研究控制和限制它的方法。
根據(jù)當時的報道,該團隊被授予最高優(yōu)先級,并獲得公司 20% 的計算資源支持,他們的目標是在未來四年內(nèi)解決控制超「超級 AI」的核心技術挑戰(zhàn)。
為了配合此次「準備就緒」團隊的啟動,Open AI 還舉辦了一項挑戰(zhàn)賽,讓外部人士就 AI 可能被如何濫用并在現(xiàn)實世界造成危害的方式提出想法,前 10 名的提交者將獲得 2.5 萬美元的獎金和一份「準備就緒」的工作。
02
關于「AI 可能
導致人類滅絕」的擔心
OpenAI 的 CEO Sam Altman 一直擔心 AI 可能導致人類滅絕。
在 5 月的一場 AI 主題的美國國會聽證會上,Altman 就表示,需要對 AI 進行監(jiān)管,如果沒有針對超級 AI 的嚴格監(jiān)管標準,未來 20 年內(nèi)將會出現(xiàn)更多危險。
5 月底,Altman 又和谷歌 DeepMind、Anthropic 的 CEO 以及一些知名 AI 研究人員簽署了一份簡短聲明,聲稱「與流行病和核戰(zhàn)爭一樣,減輕 AI 導致滅絕的風險應該成為全球優(yōu)先事項之一」。
6 月的舊金山科技峰會上,Sam Altman 提到在 AI 技術發(fā)展上「你不應該信任一家公司,當然也不應該信任一個人」,他認為這項技術本身以及它的好處、它的獲取、它的治理,都是屬于全人類的。
不過也有人(以馬斯克為代表)指責Altman「呼吁監(jiān)管」只是為了保護 OpenAI領導地位。Sam Altman 當時回應稱,「我們認為,應該對那些超過某一高度能力閾值的大型公司和專有模型進行更多監(jiān)管,而對小型初創(chuàng)公司和開源模型的監(jiān)管應該較少。我們已經(jīng)看到試圖對科技進行過度監(jiān)管的國家所面臨的問題,這不是我們所期望的。」
他還表示,「人們訓練的模型遠遠超出了我們今天擁有的任何模型規(guī)模,但如果超出了某些能力閾值,我認為應該需要有一個認證過程,同時還應該進行外部審核和安全測試。而且,這樣的模型需要向政府報告,應該接受政府的監(jiān)督。」
與 Altman 觀點相反的是,就在 10 月 19 日,Meta 科學家 Yann LeCun(楊立昆)在接受英媒《金融時報》采訪時表達了自己反對過早監(jiān)管 AI 的立場。
Yann LeCun 是美國國家科學院、美國國家工程院和法國科學院院士,也因發(fā)明卷積網(wǎng)絡,以及使用卷積神經(jīng)網(wǎng)絡(CNN)的光學字符識別和計算機視覺方面的工作而聞名。
2018 年,Yann LeCun 與 Yoshua Bengio 和 Geoffrey Hinton 一起獲得了圖靈獎(通常被稱為「計算界的諾貝爾獎」),上述三位通常被稱為「人工智能教父」和「深度學習教父」。
在訪談中,Yann LeCun 對 AI 監(jiān)管整體呈現(xiàn)出較為消極的態(tài)度,他認為,現(xiàn)在監(jiān)管 AI 模型就像在 1925 年監(jiān)管噴氣式航空飛機一樣(當時這種飛機還沒有被發(fā)明出來),過早監(jiān)管 AI 只會加強大型科技公司的主導地位,扼殺競爭。
「監(jiān)管 AI 的研發(fā)會產(chǎn)生令人難以置信的反效果,」Yann LeCun 表示,監(jiān)管 AI 的要求源于一些領先科技公司的「傲慢」或者「優(yōu)越感」,這些公司認為只有他們才能獲得信任,安全地開發(fā) AI,「他們希望打著 AI 安全的幌子進行監(jiān)管。」
「但事實上,在我們能夠設計出一個系統(tǒng),讓它在學習能力方面能夠與貓相匹敵之前,關于 AI 可能會帶來風險的辯論都為時過早」,Yann LeCun 表示,當前一代 AI 模型的能力還遠未達到一些研究人員所宣稱的那樣強大,「它們根本不了解世界的運作方式,它們既沒有計劃能力,也沒辦法進行真正的推理。」
在他看來,OpenAI 和谷歌 DeepMind 一直「過分樂觀」地看待這個問題的復雜性,事實上,距離 AI 達到人類智能水平還需要幾個「概念性的突破」。但即便到那時,也可以通過在系統(tǒng)中編碼「道德品質(zhì)」來控制 AI,就像現(xiàn)在可以用制定法律來規(guī)范人類行為一樣。