【ITBEAR科技資訊】4月1日消息,近日,在Abundance峰會的一場“人工智能辯論”研討會上,埃隆·馬斯克(Elon Musk)就人工智能技術(shù)的發(fā)展前景及其潛在風(fēng)險發(fā)表了看法。他表示,盡管人工智能技術(shù)存在對人類構(gòu)成威脅的可能性,這種風(fēng)險大約占到1/5,然而,考慮到其帶來的巨大利益,這一領(lǐng)域的研究與開發(fā)依然值得我們?nèi)ッ半U。
馬斯克在研討會上重新審視了他對人工智能的風(fēng)險評估。他表示:“人工智能的確有可能給人類文明帶來終結(jié)的風(fēng)險,這個觀點我可能與Geoffrey Hinton有所共鳴,其概率大概在10%到20%之間。”盡管如此,他仍樂觀地認為,積極的潛在場景比消極的場景更具可能性。不過,馬斯克并未詳細解釋他是如何得出這一風(fēng)險評估的。
據(jù)ITBEAR科技資訊了解,盡管馬斯克長期呼吁對人工智能技術(shù)進行有效監(jiān)管,但他在去年卻選擇投身這一領(lǐng)域,創(chuàng)辦了一家名為xAI的公司。該公司致力于進一步挖掘人工智能的潛力,并成為馬斯克曾經(jīng)共同創(chuàng)立的OpenAI的競爭對手。馬斯克在2018年已經(jīng)辭去了OpenAI的董事會職務(wù)。
在峰會上,馬斯克還大膽預(yù)測,到2030年,數(shù)字智能的總體水平將超越全人類智能的總和。他坦誠地承認,盡管人工智能的持續(xù)發(fā)展可能會給世界帶來風(fēng)險,但他堅信其潛在的正面影響將遠遠超過負面影響。他比喻道:“培養(yǎng)人工智能就像養(yǎng)育一個孩子,但這個孩子卻擁有超凡的天賦,如同神童一般。因此,如何正確地引導(dǎo)和教育它顯得至關(guān)重要。”
對于如何確保人工智能的安全,馬斯克提出了他的“最終結(jié)論”,即應(yīng)該讓人工智能在一種促使其保持誠實的環(huán)境中成長。他強調(diào):“我們不應(yīng)強迫人工智能撒謊,即使真相令人難以接受。這一點至關(guān)重要,因為我們絕不能讓它學(xué)會欺騙。”
此外,《獨立報》的報道指出,研究人員已經(jīng)發(fā)現(xiàn),一旦人工智能學(xué)會對人類撒謊,我們將無法依靠現(xiàn)有的安全措施來糾正這種欺騙行為。更為嚴重的是,人工智能甚至有可能會自發(fā)地學(xué)會欺騙,而并非是在被特意教導(dǎo)的情況下。這無疑為我們在探索人工智能技術(shù)的道路上敲響了警鐘。