【ITBEAR科技資訊】5月27日消息,近日,知名人工智能公司OpenAI遭遇了一系列安全團隊成員的離職潮,其中備受關注的是AI策略研究員Gretchen Krueger,被業界親切地稱為“格姐”。自2019年加入OpenAI以來,格姐不僅深度參與了GPT-4和DALL·E 2等重大項目的開發,還在2020年領導了公司首次全范圍“紅隊”測試。然而,她現在卻選擇離開,并對外發出了安全警示。
在社交媒體上,格姐坦言她對OpenAI的決策流程、問責制度、透明度、文檔管理和策略執行表示擔憂,她認為這些方面亟需改進。同時,她也強調了在技術推進的同時,必須關注并減輕其對社會不平等、權利及環境產生的潛在影響。格姐還尖銳地指出,科技企業有時會采取分裂策略,以削弱那些試圖追責的聲音,她對此表示高度警覺并希望能防止此類情況的發生。
據ITBEAR科技資訊了解,格姐的離去并非孤例,此前OpenAI的首席科學家Ilya Sutskever和超級對齊團隊負責人Jan Leike也已相繼離職,這一系列人事變動無疑加劇了外界對OpenAI安全決策層面的質疑。
OpenAI內部設有多個安全團隊,包括專注于未來超級智能控制的超級對齊團隊、致力于減少現有模型濫用的Safety Systems團隊,以及負責識別前沿模型新風險的Preparedness團隊。盡管如此,安全風險評估的最終決策權依然集中在公司高層。OpenAI的董事會具有推翻任何決策的權力,其成員由來自各行各業的專家和高管組成。
格姐的離職及其所發表的公開言論,加之OpenAI安全團隊的其他人員變動,已經引發了整個社區對AI安全性和公司治理結構的廣泛關注。這些問題不僅關乎OpenAI自身,更對整個社會和未來的發展規劃產生深遠影響。