【ITBEAR科技資訊】5月21日消息,近日,OpenAI再次成為科技界的焦點。繼公司共同創(chuàng)始人Ilya Sutskever離職后,另一名高管Jan Leike也在社交平臺X上宣布,他已于上周離開了這家人工智能領(lǐng)域的領(lǐng)軍企業(yè)。
據(jù)ITBEAR科技資訊了解,Jan Leike曾是OpenAI旗下重要的Superalignment(超級對齊)團隊的共同主管。他此次離職的原因,據(jù)其透露,是近年來OpenAI逐漸忽視了內(nèi)部文化和安全準則,過于追求快速推出引人注目的產(chǎn)品。這一變化讓他感到失望,因此選擇離開。
Superalignment團隊是OpenAI在2023年7月設(shè)立的,其核心任務(wù)是確保具備超級智能的AI系統(tǒng)能夠遵循人類的意圖。當時,OpenAI曾承諾在未來四年內(nèi)投入20%的計算能力來保障AI模型的安全性。然而,據(jù)彭博社報道,如今這個重要團隊卻已經(jīng)被解散。
Jan Leike表示,他最初加入OpenAI是因為認為這里是世界上最適合進行AI安全研究的地方。但現(xiàn)在,他認為公司領(lǐng)導(dǎo)層已經(jīng)嚴重忽視了模型的安全性,而將盈利和獲取計算資源作為了核心優(yōu)先事項。
針對Jan Leike的離職和言論,OpenAI的Greg Brockman和Sam Altman聯(lián)名回應(yīng)稱,他們已經(jīng)提高了對AGI風(fēng)險的認知,并會不斷提升安全工作以應(yīng)對每款新模型的利害關(guān)系。他們感謝Jan Leike為OpenAI所做的一切,并表示知道他將繼續(xù)在外部為公司的使命做出貢獻。
在回應(yīng)中,他們還詳細闡述了OpenAI對整體戰(zhàn)略的思考以及對未來AI發(fā)展的看法。他們強調(diào),隨著模型能力的不斷提升,公司需要更加緊密地與用戶合作,確保AI系統(tǒng)的安全性和可靠性。同時,他們也表示將繼續(xù)進行針對不同時間尺度的安全研究,并與政府和多方利益相關(guān)者保持緊密合作。
OpenAI的這一系列變動無疑給人工智能領(lǐng)域帶來了新的思考和討論。在追求技術(shù)進步的同時,如何確保AI的安全性和遵循人類的意圖成為了行業(yè)面臨的重要挑戰(zhàn)。