谷歌前首席執(zhí)行官埃里克-施密特將人工智能與核武器相提并論,并呼吁建立類似于使世界上最強(qiáng)大的國(guó)家不互相摧毀的威懾制度。
7月22日,施密特在阿斯彭安全論壇關(guān)于國(guó)家安全和人工智能的小組討論中談到了人工智能的危險(xiǎn)。在回答有關(guān)科技界道德價(jià)值的問(wèn)題時(shí),施密特解釋說(shuō),他自己在google公司的早期也曾對(duì)信息的力量感到天真。然后,他呼吁科技更好地與它所服務(wù)的人的倫理和道德保持一致,并在人工智能和核武器之間做了一個(gè)怪異的比較。
人工智能和機(jī)器學(xué)習(xí)是一項(xiàng)令人印象深刻且經(jīng)常被誤解的技術(shù)。在很大程度上,它并不像人們認(rèn)為的那樣聰明。它可以制作出杰作級(jí)的藝術(shù)品,在《星際爭(zhēng)霸II》中擊敗人類,并為用戶打出基本的電話。然而,試圖讓它完成更復(fù)雜的任務(wù),如駕駛汽車(chē)穿越大城市,并沒(méi)有那么順利。
施密特談到了20世紀(jì)50年代和60年代,當(dāng)時(shí)各國(guó)外交部門(mén)圍繞地球上最致命的武器精心制定了一系列控制措施。但是,為了讓世界達(dá)到制定《禁止核試驗(yàn)條約》、《第二階段談判協(xié)議》和其他具有里程碑意義的立法的地步,花了幾十年的時(shí)間進(jìn)行核爆炸,關(guān)鍵是廣島和長(zhǎng)崎的毀滅。美國(guó)在二戰(zhàn)結(jié)束時(shí)摧毀的這兩個(gè)日本城市殺死了數(shù)以萬(wàn)計(jì)的人,并向世界證明了核武器的永恒恐怖。
我們與這些武器被使用的可能性共處的方式是通過(guò)一種叫做"相互確保毀滅"(MAD)的東西,這是一種威懾理論,確保如果一個(gè)國(guó)家發(fā)射核彈,其他國(guó)家也有可能發(fā)射。我們不使用地球上最具破壞性的武器,因?yàn)檫@樣做有可能至少會(huì)摧毀全球的文明。
盡管施密特的評(píng)論豐富多彩,但我們并不希望或需要人工智能的MAD。首先,人工智能還沒(méi)有證明自己接近核武器的破壞力。但身居要職的人害怕這項(xiàng)新技術(shù),而且,通常是出于錯(cuò)誤的原因。人們甚至建議將核武器的控制權(quán)交給人工智能,理論上他們會(huì)比人類更好地決定武器的使用。
人工智能的問(wèn)題不在于它有潛在的摧毀世界核武器的力量。問(wèn)題在于,人工智能的好壞取決于設(shè)計(jì)它的人,他們反映了創(chuàng)造者的價(jià)值觀。人工智能存在著典型的"垃圾進(jìn),垃圾出"的問(wèn)題。種族主義的算法造就了種族主義的機(jī)器人,所有的人工智能都帶有其創(chuàng)造者的偏見(jiàn)。