在很長(zhǎng)一段時(shí)間內(nèi),OpenAI都是互聯(lián)網(wǎng)開(kāi)源精神的踐行者,GPT人工智能模型也在很長(zhǎng)一段時(shí)間內(nèi)保持開(kāi)源,最多也不過(guò)是在推出一段時(shí)間后,再進(jìn)行開(kāi)源。
但從ChatGPT采用的GPT-3.5開(kāi)始,這一情況發(fā)生了改變,無(wú)論是GPT-3.5還是最新的GPT-4,OpenAI都表示不會(huì)進(jìn)行開(kāi)源。
近日,在接受媒體采訪(fǎng)時(shí),OpenAI的創(chuàng)始人Ilya Sutskever對(duì)這一行為做出了解答,并稱(chēng)人工智能開(kāi)源是不理智的行為。
“這些模型非常強(qiáng),而且會(huì)變得越來(lái)越強(qiáng),”他說(shuō),“在某種程度上,如果有人想的話(huà),很容易用這些模型造成很大傷害。”
同時(shí),Sutskever表示,“隨著人工智能的性能不斷提升,不想透露它們是有原因的。”
OpenAI的首席執(zhí)行官Sam Altman此前也提出過(guò)類(lèi)似的觀點(diǎn)。
Altman曾在采訪(fǎng)中表示,人工智能工具可以幫助人們變得更高效、更健康、更聰明,但也補(bǔ)充說(shuō),世界可能離可怕的人工智能工具可能并沒(méi)有那么遠(yuǎn),所以對(duì)它們進(jìn)行監(jiān)管“至關(guān)重要”。
從官方回應(yīng)來(lái)看,對(duì)于AI濫用可能導(dǎo)致的風(fēng)險(xiǎn)與嚴(yán)重后果,或許是OpenAI選擇不進(jìn)行模型開(kāi)源的主要原因之一。
來(lái)源:快科技