IT之家 10 月 27 日消息,AI target=_blank class=infotextkey>OpenAI 當地時間周四宣布,公司正在組建一個新團隊,以降低與 AI 相關的“災難性風險”,將對 AI 可能引發的重大問題進行跟蹤、評估、預測和保護。
OpenAI 稱,“我們深信前沿 AI 模型的能力將超過目前最先進的現有模型,并可能造福全人類,但它們也帶來了越來越嚴重的風險。”該團隊將努力減輕核威脅、生物、化學和放射性威脅等一系列 AI 可能引發的重大風險,以及 AI“自我復制”等行為帶來的潛在風險。
圖源 Pexels
OpenAI 表示,公司需要確保擁有高能力 AI 系統安全所需的理解、基礎設施。該團隊將由原麻省理工學院可部署機器學習中心主任 Aleksander Madry 領導,并將制定、維護一項“風險知情開發政策”,用以概述公司在評估和監控 AI 大模型所做的工作。
IT之家此前報道,非營利組織 AI 安全中心于上月底發表簡短聲明:“將減輕人工智能帶來的滅絕風險,放在和流行病、核戰等社會問題同一高度,作為全球優先事項推進”,這項 22 字的倡議已得到了包括 OpenAI 首席執行官山姆?阿爾特曼在內的多位 AI 行業大佬的支持。