【ITBEAR科技資訊】10月27日消息,OpenAI宣布成立一支專門團隊,旨在降低與人工智能(AI)相關的“災難性風險”,并致力于追蹤、評估、預測和保護免受AI可能引發的重大問題。
據了解,OpenAI相信前沿AI模型的潛力將超越目前最先進的現有模型,為全人類帶來福祉,但同時也帶來了日益嚴重的潛在風險。這一新成立的團隊將努力應對AI可能引發的重大風險,包括核威脅、生物、化學和放射性威脅等,以及AI“自我復制”等行為可能帶來的潛在風險。
OpenAI強調,他們必須確保具備足夠的理解和基礎設施,以確保高能力AI系統的安全性。這支團隊將由前麻省理工學院可部署機器學習中心的主任Aleksander Madry領導,并將制定和維護一項名為“風險知情開發政策”的措施,旨在總結公司在評估和監控AI大模型方面的工作。
此前,非營利組織AI安全中心發表簡短聲明,將減輕AI引發的絕滅風險視為與流行病、核戰等社會問題同等重要的全球優先事項。這一倡議得到了包括OpenAI首席執行官山姆?阿爾特曼在內的多位AI行業領袖的支持。