【ITBEAR科技資訊】7月6日消息,OpenAI近日宣布成立一個新團隊,專注于研發(fā)引導和控制超級智能人工智能系統(tǒng)的方法。這一團隊由OpenAI的首席科學家伊利亞·蘇斯克維爾和協(xié)調團隊負責人簡·萊克共同領導。據(jù)他們預測,未來十年內可能出現(xiàn)智能超過人類的人工智能,而且這種超級智能并不一定具備善良的特質,因此必須研究控制和限制其行為的方法。
OpenAI此次成立的團隊不僅包括蘇斯克維爾和萊克,還有其他OpenAI部門的研究人員以及新加入的研究人員和工程師。這表明OpenAI對于超級智能的發(fā)展和控制具有高度的重視。
值得注意的是,OpenAI并非首次討論超級智能人工智能的相關問題。早在2023年5月,OpenAI的首席執(zhí)行官薩姆·奧特曼與蘇斯克維爾共同撰寫的一篇論文中,就提出了對超級智能人工智能進行特殊監(jiān)管的必要性,并探討了在其與人類社會融合之前如何安全處理的問題。
據(jù)ITBEAR科技資訊了解,人工智能的潛在風險一直是研究人員和公眾關注的焦點。今年3月,特斯拉CEO馬斯克等一千多名科技界人士聯(lián)名發(fā)表公開信,呼吁暫停訓練比GPT-4更強大的AI系統(tǒng)至少六個月,以便更全面地考慮其潛在風險。
通過成立新團隊,OpenAI希望能夠加強對超級智能人工智能的研究,探索控制和引導其發(fā)展的方法,以確保未來人工智能的安全和可持續(xù)發(fā)展。這對于全球人工智能領域的發(fā)展和社會的長遠利益具有重要意義。