【ITBEAR科技資訊】5月21日消息,近日,OpenAI再次成為科技界的焦點(diǎn)。繼公司共同創(chuàng)始人Ilya Sutskever離職后,另一名高管Jan Leike也在社交平臺(tái)X上宣布,他已于上周離開(kāi)了這家人工智能領(lǐng)域的領(lǐng)軍企業(yè)。
據(jù)ITBEAR科技資訊了解,Jan Leike曾是OpenAI旗下重要的Superalignment(超級(jí)對(duì)齊)團(tuán)隊(duì)的共同主管。他此次離職的原因,據(jù)其透露,是近年來(lái)OpenAI逐漸忽視了內(nèi)部文化和安全準(zhǔn)則,過(guò)于追求快速推出引人注目的產(chǎn)品。這一變化讓他感到失望,因此選擇離開(kāi)。
Superalignment團(tuán)隊(duì)是OpenAI在2023年7月設(shè)立的,其核心任務(wù)是確保具備超級(jí)智能的AI系統(tǒng)能夠遵循人類的意圖。當(dāng)時(shí),OpenAI曾承諾在未來(lái)四年內(nèi)投入20%的計(jì)算能力來(lái)保障AI模型的安全性。然而,據(jù)彭博社報(bào)道,如今這個(gè)重要團(tuán)隊(duì)卻已經(jīng)被解散。
Jan Leike表示,他最初加入OpenAI是因?yàn)檎J(rèn)為這里是世界上最適合進(jìn)行AI安全研究的地方。但現(xiàn)在,他認(rèn)為公司領(lǐng)導(dǎo)層已經(jīng)嚴(yán)重忽視了模型的安全性,而將盈利和獲取計(jì)算資源作為了核心優(yōu)先事項(xiàng)。
針對(duì)Jan Leike的離職和言論,OpenAI的Greg Brockman和Sam Altman聯(lián)名回應(yīng)稱,他們已經(jīng)提高了對(duì)AGI風(fēng)險(xiǎn)的認(rèn)知,并會(huì)不斷提升安全工作以應(yīng)對(duì)每款新模型的利害關(guān)系。他們感謝Jan Leike為OpenAI所做的一切,并表示知道他將繼續(xù)在外部為公司的使命做出貢獻(xiàn)。
在回應(yīng)中,他們還詳細(xì)闡述了OpenAI對(duì)整體戰(zhàn)略的思考以及對(duì)未來(lái)AI發(fā)展的看法。他們強(qiáng)調(diào),隨著模型能力的不斷提升,公司需要更加緊密地與用戶合作,確保AI系統(tǒng)的安全性和可靠性。同時(shí),他們也表示將繼續(xù)進(jìn)行針對(duì)不同時(shí)間尺度的安全研究,并與政府和多方利益相關(guān)者保持緊密合作。
OpenAI的這一系列變動(dòng)無(wú)疑給人工智能領(lǐng)域帶來(lái)了新的思考和討論。在追求技術(shù)進(jìn)步的同時(shí),如何確保AI的安全性和遵循人類的意圖成為了行業(yè)面臨的重要挑戰(zhàn)。