【ITBEAR科技資訊】4月16日消息,OpenAI 的聯合創始人兼 CEO 薩姆?奧爾特曼(Sam Altman)在麻省理工學院“想象力行動”活動上接受了采訪,談到了大語言模型(LLM)的發展趨勢和安全問題。
奧爾特曼認為,我們正在接近 LLM 規模的極限,規模越大并不一定意味著模型越好,而可能只是為了追求一個數字而已。
據ITBEAR科技資訊了解,奧爾特曼還回應了一封要求 OpenAI 暫停開發更強大 AI 六個月的公開信,他表示他同意在能力越來越強大的情況下,安全標準也要提高,但他認為信件缺乏技術細節和準確性。他說,OpenAI 在發布 GPT-4 之前已經花了六個月以上的時間來研究安全問題,并邀請外部審計和“紅隊”來測試模型。"我也同意,隨著能力變得越來越強,安全標準必須提高。但我認為這封信缺少了關于我們需要暫停的大部分技術上的細微差別 —— 這封信的早期版本聲稱我們正在訓練 GPT-5。我們沒有,而且在一段時間內也不會,所以從這個意義上說,這有點愚蠢。但我們在 GPT-4 的基礎上還在做其他事情,我認為這些事情有各種安全問題需要解決,但信中完全沒有提到。因此,我認為謹慎行事,并對安全問題越來越嚴格,這一點非常重要。我不認為(信中的)建議是解決這個問題的最終方法,"他說。
奧爾特說,OpenAI 已經在這個領域工作了七年,付出了很多努力,而大多數人都不愿意這樣做。他說,他愿意公開討論安全問題和模型的局限性,因為這是正確的事情。他承認有時候他和其他公司代表會說一些“蠢話”,結果發現是錯誤的,但他愿意冒這個風險,因為他們希望能夠與社區建立更好的合作關系,共同推動人工智能的安全發展。
奧爾特曼還指出,OpenAI 在模型訓練中遵循了一些原則,包括限制模型的能力,避免將其應用于惡意用途,以及促使社區參與模型的決策過程。他認為,公眾對于AI的應用和影響有權參與討論和決策,而不應該由單一實體來決定。
在談到未來的發展方向時,奧爾特曼表示,OpenAI將繼續致力于提升模型的效用和能力,同時保持對安全性的高度警惕,并與社區、學術界和政府等多方合作,共同解決人工智能領域面臨的安全和倫理問題。
總的來說,奧爾特曼強調了OpenAI對于人工智能安全的重視,并表示他們將繼續努力推動技術的發展,同時積極參與社會討論和合作,確保人工智能的應用能夠更好地造福人類。