百歲基辛格重磅發(fā)聲:人工智能將改變?nèi)虬踩c世界秩序
2023年,亨利·基辛格已經(jīng)100歲高齡,但是他頭腦依然很清醒,思路依然很清晰。他還是一如既往的參加國際問題的討論,并且還能給出令人佩服的預(yù)測。
《經(jīng)濟學(xué)人》在4月底與基辛格進行了長達8個小時的對話。在這次對話中,基辛格表示出了對中美兩國圍繞科技和經(jīng)濟領(lǐng)先地位日益激烈競爭的擔憂,他還擔心人工智能即將極大程度地加劇中美對立。基辛格認為,人工智能將在五年內(nèi)成為安全領(lǐng)域的關(guān)鍵因素,其顛覆性潛力堪比活字印刷術(shù)。
“我們生活在一個破壞性空前的世界中”,基辛格警告道。盡管原則上人類要介入機器學(xué)習(xí)的反饋循環(huán),但人工智能還是可能成為全自動的、不可阻擋的武器。
基辛格一直非常關(guān)注人工智能的發(fā)展,他曾經(jīng)說過“搞技術(shù)的人關(guān)心的是應(yīng)用,我關(guān)心的是影響”。最近,基辛格和谷歌前首席執(zhí)行官埃里克·施密特、麻省理工學(xué)院蘇世民學(xué)院院長丹尼爾·胡騰洛赫爾還共同完成一本書《人工智能時代與人類未來》,基辛格在這本書中提出,人工智能將重塑全球安全和世界秩序,并對人工智能發(fā)展對個體和人類自我身份認同的沖擊進行了反思。
自有記載的人類歷史起,安全始終是一個有組織的社會追求的最低目標。在每一個時代,尋求安全的社會都試圖將技術(shù)進步轉(zhuǎn)化為日益有效的方法,用以監(jiān)視威脅,練兵備戰(zhàn),施影響于國界之外,戰(zhàn)時則用于加強軍事力量以取得勝利。對最早期的有組織社會來說,冶金、防御工事、戰(zhàn)馬蓄養(yǎng)和造船等方面的進步往往具有決定性的意義。到了近代早期,火器槍炮、海軍艦船、航海工具和技術(shù)方面的創(chuàng)新也發(fā)揮了類似的作用。
隨著力量的增強,主要大國之間會相互衡量,以評估哪一方會在沖突中獲勝,取得這樣的勝利會帶來什么風險和損失,開戰(zhàn)有什么正當?shù)睦碛桑约傲硪粋€大國及其軍事力量介入沖突會對結(jié)果產(chǎn)生什么影響。不同國家的戰(zhàn)力、目標和戰(zhàn)略至少在理論上被設(shè)定為一種平衡,或者說是一種力量的均衡。
人工智能時代的網(wǎng)絡(luò)戰(zhàn)爭
在過去的一個世紀里,對手段和目的的戰(zhàn)略調(diào)整已然出現(xiàn)了脫節(jié)。用于追求安全的技術(shù)層出不窮,破壞性也越來越大,而運用這些技術(shù)實現(xiàn)既定目標的戰(zhàn)略卻變得越來越難以捉摸。在當今時代,網(wǎng)絡(luò)和人工智能的出現(xiàn)又為這些戰(zhàn)略計算增加了超乎尋常的復(fù)雜性和抽象性。
在冷戰(zhàn)結(jié)束后的今天,主要大國和其他國家都利用網(wǎng)絡(luò)能力增強了本國的武器庫,這些網(wǎng)絡(luò)能力的效用主要源自其不透明性和可否認性,在某些情況下,也源自對其在散播虛假信息、收集情報、蓄意破壞和傳統(tǒng)沖突的模糊邊界上的運用——這構(gòu)成了種種尚無公認理論教條的戰(zhàn)略。與此同時,每一次進步都伴隨著新的弱點被揭露。
人工智能時代可能使現(xiàn)代戰(zhàn)略之謎更趨復(fù)雜化,這并非人類本意,也許還完全超出人類的理解。即使各國不廣泛部署所謂的致命自主武器(即經(jīng)過訓(xùn)練和授權(quán)可以自主選擇目標,并在沒有進一步人類授權(quán)的情況下進行攻擊的自動或半自動人工智能武器),人工智能仍有可能增強常規(guī)武器、核武器和網(wǎng)絡(luò)能力,從而使對手之間的安全關(guān)系更加難以預(yù)測和維護,沖突更加難以限制。
沒有哪個大國可以忽視人工智能的安全維度。一場爭奪人工智能戰(zhàn)略優(yōu)勢的競賽已經(jīng)開始,尤其是在美國和中國之間,當然還有俄羅斯。隨著對他國正在獲得某些人工智能能力的認知或猜疑日益蔓延,將會有更多國家尋求獲得這些能力。而一旦被引入,這能力就會快速擴散。雖然創(chuàng)造一種復(fù)雜的人工智能需要大量的算力,但對其進行增殖擴散或使用它通常并不需要。
解決這些復(fù)雜問題的辦法既不是陷入絕望,也不是繳械投降。核技術(shù)、網(wǎng)絡(luò)技術(shù)和人工智能技術(shù)已經(jīng)存在,其中每一項技術(shù)都將不可避免地在戰(zhàn)略中發(fā)揮作用。我們已不可能退回到這些技術(shù)“未被發(fā)明”的時代。如果美國及其盟友因這些能力可能產(chǎn)生的影響而畏縮不前,結(jié)果不會是一個更和平的世界。相反,那將是一個不太平衡的世界,身處其中的各國會競相發(fā)展和使用最強大的戰(zhàn)略能力,而不考慮民主責任和國際平衡。
今后幾十年,我們需要實現(xiàn)一種力量平衡,這種平衡既要考慮到網(wǎng)絡(luò)沖突和大規(guī)模虛假信息傳播等無形因素,也要考慮到由人工智能輔助的戰(zhàn)爭的獨特屬性。殘酷的現(xiàn)實迫使人們認識到,即使是在彼此競爭中,人工智能領(lǐng)域的對手們也應(yīng)致力于限制極具破壞性、不穩(wěn)定性和不可預(yù)測性的人工智能能力的開發(fā)和使用。在人工智能軍備控制方面的清醒努力與國家安全并不沖突,它是一種嘗試,為的是確保在人類未來的框架下尋求實現(xiàn)安全。
一個社會的數(shù)字能力越強,這個社會就變得越脆弱
縱觀歷史,一個國家的政治影響力往往與其軍事力量和戰(zhàn)略能力大致匹配,這是一種即使主要通過施加隱性威脅也會對其他社會造成破壞的能力。然而,基于這種力量權(quán)衡的均勢不是靜態(tài)的或自我維持的。相反,它首先依賴于各方就這一力量的構(gòu)成要素及其使用的合法界限達成共識。其次,維持均勢需要體系內(nèi)所有成員,尤其是對手,就各個國家的相對能力、意圖和侵略的后果進行一致的評估。最后,保持均勢需要一個實際的、公認的平衡。當體系中的一方以一種與其他成員并不成比例的方式增加自身力量時,體系將通過組織對抗力量或者通過適應(yīng)新的現(xiàn)實來設(shè)法做出調(diào)整。當均勢的權(quán)衡變得不確定時,或者當各國對各自相對實力的權(quán)衡結(jié)果完全不同時,由誤算引發(fā)沖突的風險就會達到最大。
在當今時代,這些權(quán)衡的抽象性更進一步。帶來這種轉(zhuǎn)變的原因之一是所謂的網(wǎng)絡(luò)武器,這類武器涉及軍用和民用兩個領(lǐng)域,因此其作為武器的地位是模糊的。在某些情況下,網(wǎng)絡(luò)武器在行使和增強軍事力量方面的效用主要源于其使用者未披露其存在或未承認其全部能力。傳統(tǒng)上,沖突各方都不難認識到發(fā)生了交戰(zhàn),或者認識到交戰(zhàn)各方是誰。對手間會計算對方的戰(zhàn)力,并評估他們部署武器的速度。可是這些在傳統(tǒng)戰(zhàn)場上顛撲不破的道理卻不能直接套用到網(wǎng)絡(luò)領(lǐng)域。
常規(guī)武器和核武器存在于物理空間中,在那里,它們的部署可以被察覺,它們的能力至少可以被粗略計算出來。相比之下,網(wǎng)絡(luò)武器的效用很大一部分來自其不透明性;若被公之于眾,它們的威力自然有所減損。這些武器利用之前未曾披露的軟件漏洞,在未經(jīng)授權(quán)用戶許可或知情的情況下侵入網(wǎng)絡(luò)或系統(tǒng)。在“分布式拒絕服務(wù)”(DDoS)攻擊(如對通信系統(tǒng)的攻擊)的突發(fā)事件中,攻擊者可能會使用一大堆看似有效的信息請求來壓垮系統(tǒng),使系統(tǒng)無法正常使用。在這種情況下,攻擊的真實來源可能被掩蓋,使人難以或無法(至少在當時)確定攻擊者。即使是最著名的網(wǎng)絡(luò)工業(yè)破壞事件之一——震網(wǎng)(Stuxnet)病毒破壞了伊朗核項目中的制造控制計算機,也沒有任何政府對此事做過正式承認。
常規(guī)武器和核武器可以相對精確地瞄準目標,道德和法律要求它們瞄準的對象只能是軍事力量和設(shè)施。而網(wǎng)絡(luò)武器可以廣泛地影響計算和通信系統(tǒng),往往可對民用系統(tǒng)造成特別有力的打擊。網(wǎng)絡(luò)武器也可以被其他行為體基于其他目的而進行吸納、修改和重新部署。這使得網(wǎng)絡(luò)武器在某些方面類似于生物和化學(xué)武器,其影響可以非預(yù)期和未知的方式傳播。在許多情況下,網(wǎng)絡(luò)武器影響的是大范圍的人類社會,而不僅僅是戰(zhàn)場上的特定目標。
網(wǎng)絡(luò)武器的這些用途,使得網(wǎng)絡(luò)軍備控制難以被概念化或被推行。核軍備控制的談判人員可以公開披露或描述一類核彈頭,而不必否認該武器的功能。網(wǎng)絡(luò)軍備控制談判人員(目前尚不存在)則需要解決以下悖論:一旦對網(wǎng)絡(luò)武器的威力進行討論,可能就會導(dǎo)致這種威力的喪失(允許對手修補漏洞)或擴散(對手得以復(fù)制代碼或侵入方法)。
我們所處的數(shù)字時代的一個核心悖論是:一個社會的數(shù)字能力越強,這個社會就變得越脆弱。計算機、通信系統(tǒng)、金融市場、大學(xué)、醫(yī)院、航空公司和公共交通系統(tǒng),甚至民主政治的機制,所涉及的系統(tǒng)在不同程度上都容易受到網(wǎng)絡(luò)操縱或攻擊。隨著發(fā)達經(jīng)濟體將數(shù)字指揮和控制系統(tǒng)整合到發(fā)電廠和電網(wǎng)中,將政府項目轉(zhuǎn)移到大型服務(wù)器和云系統(tǒng)中,并將數(shù)據(jù)轉(zhuǎn)謄到電子賬簿中,它們在網(wǎng)絡(luò)攻擊面前的脆弱性也成倍增加。這些行為提供了更豐富的目標集合,因此僅僅一次成功的攻擊就可能造成實質(zhì)性的破壞。與此相對,如果發(fā)生數(shù)字破壞的情況,低技術(shù)國家、恐怖組織甚至個人攻擊者可能會認為他們承受的損失相對要小得多。
人工智能將為戰(zhàn)爭帶來新的變數(shù)
各國正在悄無聲息地,有時是試探性地,但又確鑿無疑地發(fā)展和部署那些對各種軍事能力的戰(zhàn)略行動均有所促進的人工智能,這對安全政策可能產(chǎn)生革命性影響。
戰(zhàn)爭一直是一個充滿不確定性和偶然性的領(lǐng)域,但人工智能進入這個領(lǐng)域?qū)槠鋷硇碌淖償?shù)。
人工智能和機器學(xué)習(xí)將通過擴大現(xiàn)有武器類別的打擊能力來改變行為者的戰(zhàn)略和戰(zhàn)術(shù)選擇。人工智能不僅能使常規(guī)武器瞄得更精準,還能使它們以新的、非常規(guī)的方式進行瞄準,比如(至少在理論上)瞄準某個特定的個人或物體,而不是某個地點。通過研究大量信息,人工智能網(wǎng)絡(luò)武器可以學(xué)習(xí)如何滲透防御,而不需要人類幫它們發(fā)現(xiàn)可以利用的軟件漏洞。同樣,人工智能也可以用于防御,在漏洞被利用之前定位并修復(fù)它們。但由于攻擊者可以選擇目標而防御者不能,人工智能即使未必讓進攻方戰(zhàn)無不勝,也可令其占得先機。
如果一個國家面對的對手已經(jīng)訓(xùn)練人工智能來駕駛飛機、獨立做出瞄準的決策并開火,那么采用這種技術(shù)將在戰(zhàn)術(shù)、戰(zhàn)略或訴諸升級戰(zhàn)爭規(guī)模(甚至是核戰(zhàn))的意愿方面產(chǎn)生什么變化?
人工智能開辟了信息空間能力的新視野,包括虛假信息領(lǐng)域。生成式人工智能可以創(chuàng)造大量似是而非的虛假信息。人工智能推波助瀾的信息戰(zhàn)和心理戰(zhàn),包括使用偽造的人物、圖片、視頻和演講,無時無刻不在暴露出當今社會令人不安的新弱點,尤其是在自由社會。廣泛轉(zhuǎn)發(fā)的示威活動配上了看似真實的圖片和視頻,里面的公眾人物發(fā)表著他們從未真正說過的言論。從理論上講,人工智能可以決定將這些由人工智能合成的內(nèi)容以最有效的方式傳遞給人們,使其符合人們的偏見和期望。如果一個國家領(lǐng)導(dǎo)人的合成形象被對手操縱,以制造不和或發(fā)布誤導(dǎo)性的指令,公眾(甚至其他政府和官員)會及時識破這種騙局嗎?
在災(zāi)難真正發(fā)生之前行動
各個主要的技術(shù)先進國家都需要明白,它們正處于戰(zhàn)略轉(zhuǎn)型的門檻上,這種轉(zhuǎn)型與當年核武器的出現(xiàn)同等重要,但影響將更加多樣化、分散化和不可預(yù)測。每個正在擴展人工智能前沿的社會都應(yīng)致力于成立一個國家層面的機構(gòu),來考量人工智能的防御和安全,并在影響人工智能創(chuàng)建和部署的各個部門之間建立橋梁。這個機構(gòu)應(yīng)被賦予兩項職能:確保維持本國在世界其他地區(qū)的競爭力,同時協(xié)調(diào)研究如何防止或至少限制不必要的沖突升級或危機。在此基礎(chǔ)上,與盟友和對手進行某種形式的談判將是至關(guān)重要的。
如果要對這一方向進行探索,那么世界兩大人工智能強國——美國和中國——就必須接受這一現(xiàn)實。兩國可能會得出這樣的結(jié)論:無論兩國競爭的新階段可能會出現(xiàn)何種形式的競賽,兩國仍應(yīng)該尋求達成一項共識,即不會同對方打一場前沿技術(shù)戰(zhàn)爭。雙方政府可以委托某個團隊或高級官員負責監(jiān)督,并直接向領(lǐng)導(dǎo)人報告潛在的危險,以及如何避免這些危險。
在人工智能時代,我們應(yīng)該對長期以來的戰(zhàn)略邏輯進行調(diào)整。在災(zāi)難真正發(fā)生之前,我們需要克服,或者至少是遏制這種自動化的驅(qū)向。我們必須防止運行速度比人類決策者更快的人工智能做出一些具有戰(zhàn)略后果的、不可挽回的行為。防御力量的自動化,必須在不放棄人類控制的基本前提下去實施。
當代領(lǐng)導(dǎo)人可以通過將常規(guī)能力、核能力、網(wǎng)絡(luò)能力和人工智能能力廣泛而動態(tài)地結(jié)合在一起,來實現(xiàn)控制武器裝備的六大任務(wù)。
第一,對抗和敵對國家的領(lǐng)導(dǎo)人必須準備定期開展相互對話,討論他們都想要避免的戰(zhàn)爭形式,就像他們的前任在冷戰(zhàn)期間所做的那樣。為對此有所助力,美國及其盟友應(yīng)該圍繞它們認為共同的、固有的和不可侵犯的利益與價值觀組織起來,這些利益和價值觀包括在冷戰(zhàn)結(jié)束時及冷戰(zhàn)后成長起來的幾代人的經(jīng)驗。
第二,必須對核戰(zhàn)略的未解難題給予新的關(guān)注,并認識到其本質(zhì)正是人類在戰(zhàn)略、技術(shù)和道德方面遭遇的巨大挑戰(zhàn)之一。幾十年來,對廣島和長崎被原子彈化為焦土的記憶迫使人們認識到核問題的不尋常性和嚴峻程度。正如美國前國務(wù)卿喬治·舒爾茨在2018 年對國會所說:“我擔心人們已經(jīng)失去了那種恐懼感。”擁核國家的領(lǐng)導(dǎo)人必須認識到,他們有責任共同努力,以防止災(zāi)難的發(fā)生。
第三,網(wǎng)絡(luò)與人工智能技術(shù)的領(lǐng)先大國應(yīng)該努力界定其理論和限制(即使其所有方面均未被公開),并找出自身理論與競爭大國之間的關(guān)聯(lián)點。如果我們的意圖是威懾而非使用,是和平而非沖突,是有限沖突而非普遍沖突,就需要以反映網(wǎng)絡(luò)和人工智能獨特層面的措辭來重新理解和定義這些術(shù)語。
第四,擁核國家應(yīng)承諾對其指揮控制系統(tǒng)和早期預(yù)警系統(tǒng)進行內(nèi)部檢查。這類失效保護檢查應(yīng)確定檢查步驟,以加強對網(wǎng)絡(luò)威脅和在未經(jīng)授權(quán)、疏忽或意外情況下使用大規(guī)模毀滅性武器行為的防范。這些檢查還應(yīng)包括排除對核指揮控制系統(tǒng)或早期預(yù)警系統(tǒng)相關(guān)設(shè)施的網(wǎng)絡(luò)攻擊的選項。
第五,世界各國,特別是技術(shù)強國,應(yīng)制定強有力和可接受的方法,在緊張局勢加劇和極端情況下盡量延長決策時間。這應(yīng)該是一個共同的概念性目標,特別是在競爭對手之間,它可以將控制不穩(wěn)定性和建立共同安全所需的步驟(既有當前的,也有長期的)聯(lián)系起來。在危機中,人類必須對是否使用先進武器承擔最終責任。特別是競爭對手間應(yīng)該努力就一種機制達成一致,以確保那些可能不可撤銷的決定是以有助于人類對其加以思考并有利于人類生存的方式做出的。
第六,主要的人工智能大國應(yīng)該考慮如何限制軍事化人工智能的繼續(xù)擴散,或者依靠外交手段與武力威脅,開展系統(tǒng)性的防擴散工作。那些野心勃勃地想要將技術(shù)用于不可接受的破壞性目的的技術(shù)收購者會是誰?有哪些特定的人工智能武器值得我們特別關(guān)注?誰來確保這條紅線不被逾越?老牌的核大國探索過這種防核擴散概念,結(jié)果成敗參半。如果一種具有顛覆性和潛在破壞性的新技術(shù)被用于武裝世界上懷有最強烈敵意或道德上最不受約束的政府的軍隊,那么戰(zhàn)略均勢可能難以實現(xiàn),沖突也可能無法控制。
由于大多數(shù)人工智能技術(shù)具有軍民兩用特性,我們有責任在這場技術(shù)研發(fā)競賽中保持領(lǐng)先。但這也同樣迫使我們?nèi)ダ斫馑木窒扌浴5鹊轿C來臨才開始討論這些問題就為時已晚了。一旦在軍事沖突中使用,人工智能技術(shù)的響應(yīng)速度之快,幾乎注定它將以比外交手段更快的速度產(chǎn)生結(jié)果。大國之間必須就網(wǎng)絡(luò)和人工智能武器展開討論,哪怕只是為了形成一套共同的戰(zhàn)略概念話語,以及感知彼此的紅線。
要在最具破壞性的能力上實現(xiàn)相互制約,絕不能等到悲劇發(fā)生再去亡羊補牢。當人類開始在創(chuàng)造新的、不斷演化的、擁有智能的武器方面展開競爭時,歷史不會原諒任何對此設(shè)限的失敗。在人工智能時代,對國家優(yōu)勢的持久追求,仍須以捍衛(wèi)人類倫理為前提。
【來源:鳳凰網(wǎng)科技】