7月6日消息,美國當地時間周三,人工智能初創公司OpenAI宣布其正組建一個新的團隊,以開發引導和控制“超級智能”(“superintelligent”)人工智能系統的方法。這個團隊由OpenAI首席科學家、聯合創始人伊利亞·蘇斯克維爾(Ilya Sutskever)領導。
在博客文章中,蘇斯克維爾和OpenAI協調團隊的負責人簡·萊克(Jan Leike)預測,智能超過人類的人工智能將在十年內出現。他們警告稱,這種人工智能不一定對人類抱有仁慈之心,因此有必要研究控制和限制它的方法。
蘇斯克維爾和萊克寫道:“目前,我們還沒有任何解決方案可以用來操縱或控制潛在的超級智能人工智能,并防止它失控。我們目前調整人工智能的技術,比如從人類反饋中強化學習,依賴于人類監督人工智能的能力。但人類將無法可靠地監督比我們聰明得多的人工智能系統。”
為了在“超級智能對齊”(Superintelligence Alignment)領域取得進展,OpenAI正在創建新的超級對齊團隊,由蘇斯克維爾和萊克共同領導,該團隊將有權使用OpenAI高達20%的算力資源。這個團隊將與OpenAI之前的對齊部門科學家和工程師以及公司其他機構的研究人員一起,致力于在未來四年解決控制超智能人工智能的核心技術挑戰。
那么,我們如何確保比人類聰明得多的人工智能系統遵循人類的意圖? 這需要蘇斯克維爾和萊克所描述的“人類級別的自動對齊研究員”幫助。高級目標是使用人類反饋來訓練人工智能系統,訓練人工智能協助評估其他人工智能系統,并最終構建可以進行對齊研究的人工智能。這里的“對齊研究”指的是確保人工智能系統達到預期的結果,或者不會偏離研究軌道。
OpenAI的假設是,人工智能可以比人類更快、更好地進行對齊研究。
“隨著我們在這方面取得進展,我們的人工智能系統可以接管越來越多的對齊工作,并最終構思、實施、研究和開發比我們現在更好的對齊技術,”萊克和他的同事約翰·舒爾曼(John Schulman)、杰弗里·吳(Jeffrey Wu)在之前的一篇博客文章中假設。“它們將與人類共同努力,以確保它們自己的繼任者與人類始終保持一致。人類研究人員將越來越多地把精力集中在審查人工智能系統完成的對齊研究上,而不是自己進行這類研究。”
當然,沒有任何方法是萬無一失的,萊克、舒爾曼以及杰弗里·吳在他們的文章中承認,OpenAI的方法存在許多局限性。他們說,使用人工智能進行評估有可能擴大人工智能中的不一致、偏見或漏洞。結果可能是,對齊問題中最困難的部分可能根本與工程無關。
但蘇斯克維爾和萊克認為值得一試。他們寫道:“從根本上說,超級智能對齊是一個機器學習問題,我們認為優秀的機器學習專家(即使他們還沒有開始研究對齊)對解決這個問題也至關重要。我們計劃廣泛分享這一努力的成果,并將促進非OpenAI模型的一致性和安全性視為我們工作的重要組成部分。”
【來源:網易科技】