【ITBEAR科技資訊】7月7日消息,OpenAI宣布成立一個新團隊,旨在探索引導和控制下一代超智能人工智能系統的方法。該團隊由OpenAI聯合創始人兼首席科學家Ilya Sutskever和Alignment負責人Jan Leike共同領導。據悉,該團隊被授予最高優先級,并獲得公司20%的計算資源支持,他們的目標是在未來四年內解決控制超智能AI的核心技術挑戰。
OpenAI的研究者Sutskever和Leike認為,下一代超智能AI可能在十年內問世,這將是迄今為止最具影響力的技術之一,有助于解決許多原本需要大量人力資源才能解決的問題。然而,他們也警惕這項技術潛在的反噬人類風險,因為超智能AI的巨大力量可能導致人類失去主權甚至滅絕。
該團隊表示,目前還沒有一個合理的解決方案來引導或控制潛在的超智能AI,人類目前只能通過反饋來調整AI系統的生成過程,但無法可靠地從根源上監督AI系統。為此,OpenAI計劃構建一個大致達到人類水平的自動化對齊研究員,并利用大量的深度學習來擴展AI的能力,并迭代地調整這種超級智能。
據ITBEAR科技資訊了解,該團隊計劃開發可擴展的訓練方法,驗證生成的模型,并進行一系列可控性測試。研究人員目前計劃利用這個AI系統來輔助評估其他AI系統,并希望了解和控制模型如何將監督推廣到人類研究員無法監督的任務上。
Sutskever和Leike表示,隨著研究的深入,他們預計研究重點可能會發生變化,并可能出現新的研究領域。
這一新團隊目前正在招募機器學習研究人員和工程師。Sutskever和Leike認為,招募更多的機器學習專家對于解決下一代超智能AI的問題至關重要。他們計劃廣泛分享團隊的研究成果,并促進整個行業的共同進步。
該新團隊的工作是對OpenAI現有工作的補充,旨在提高ChatGPT等當前模型的安全性,以及理解和減輕人工智能帶來的其他風險,如濫用、經濟破壞、虛假信息、偏見和歧視、成癮和過度依賴等。雖然新團隊將專注于解決將超智能AI系統與人類意圖結合的機器學習挑戰,但OpenAI正在積極與跨學科專家合作,以解決與社會技術問題相關的更廣泛的人類和社會問題。