4月15日訊 在討論人工智能(AI)系統帶來的威脅時,OpenAI的首席執行官兼聯合創始人Sam Altman表示,人工智能確實存在重大的安全挑戰,但暫停訓練并非解決之道。此外,他還透露,目前該公司還沒有開發GPT-5。
當地時間周四,在麻省理工學院舉行的一個討論商業和人工智能的會議上,Altman對此前的“公開信事件”以及GPT-4等問題發表了講話。
Altman指出,馬斯克等人呼吁將人工智能研發工作暫停六個月的公開信缺乏“技術細節”。他表示,我也認為需要謹慎行事,并提高人工智能的安全指導意見,但公開信中提到的方法并非正確的解決之道。
在3月29日,馬斯克等千名業界和學界人士聯署公開信,呼吁所有人工智能實驗室立即暫停訓練比GPT-4更強大的人工智能系統,暫停至少6個月,以便制定和實施安全協議。
這些大佬們警告說,OpenAI和谷歌等人工智能研發的參與者在沒有對潛在風險進行充分管理和規劃的情況下展開競賽。上周,美國總統拜登在白宮與一個科學家顧問委員會討論了這個話題。當記者問及該技術是否危險時,拜登回應稱:“還有待觀察,有可能是危險的。”
Altman補充道,我也同意,隨著人工智能的能力變得越來越強大,安全門檻必須提高。在今年早些時候,Altman承認人工智能技術讓他“有點害怕”。他認為,隨著人工智能技術的不斷發展,人類可能面臨著前所未有的挑戰和風險。
此外,Altman還明確表示,目前還未開發GPT-5,而且在一段時間內也不會。然而,對于那些擔心人工智能安全的人來說,這些言論可能不會帶來太多安慰。
這位人工智能專家提到,人工智能監管的一個重要挑戰:難以衡量和跟蹤進展。有編號的版本只是為了強調技術的明確發展,但并不能說明具體的技術進步程度。實際上只是營銷工具,比如iPhone 35要比iPhone 34好。Altman指出,該公司仍在提升GPT-4的潛力。
Altman表示,大語言模型(LLM)的規模可能正在接近極限,而且不是說規模越大就越好,人們太關注參數數量了,我認為最重要的是提升性能。
與此同時,據媒體最新報道,馬斯克計劃成立人工智能初創公司與OpenAI競爭,他已經為其人工智能初創公司獲得了英偉達處理器。
【來源:財聯社】