陳永偉/文
5月1日,現年75歲的圖靈獎得主杰弗里·辛頓(GeoffreyHinton)突然宣布從工作了十多年的谷歌離職。在辛頓宣布這一消息后不久,《紐約時報》對其進行了專訪。令許多人意外的是,在這次訪談中,辛頓沒有表現出對自己所取得成績的自豪和欣慰,而是表達了巨大的悔意。
在人工智能領域,一直存在著嚴重的路線分歧。在很長時間內,符號主義(Symbolism,這個學派主張人工智能的研究應該從基于邏輯推理的智能模擬方法模擬人的智能行為)一直是學界的主流,而辛頓所信奉的聯結主義(Con-nectionism,這個學派強調智能的產生是由大量簡單的單元通過復雜的相互聯結和并行運行)則被視為小眾甚至異端。在這樣的背景下,辛頓依然一直對自己的研究領域保持積極和樂觀的心態。即使他制作的神經網絡研究被一些學術權威當面斥為一文不值,他也從來沒有改變過對自己研究的自信。1986年,他與合作者一起發表了開創性的論文《通過反向傳播誤差來學習表征》。正是這一工作,為后來的深度學習革命奠定了理論基礎。
在進入新世紀后,計算技術突飛猛進,深度學習所需要的算力瓶頸被突破。在強大算力的支持之下,這一技術表現出了強大的力量——無論是幾年前戰勝人類棋手的AlphaGO,還是用短短兩個月時間就成功破解了所有蛋白質折疊結構的AlphaFold,又或是現在大放異彩的GPT、Midjourney,它們的底層技術其實都來自于辛頓的貢獻。而在ChatGPT橫空出世的過程中,辛頓的弟子、OpenAI的首席科學家伊爾亞·蘇茨克維(IlyaSutskever)則更是居功至偉。隨著這一切的實現,聯結主義終于戰勝了符號主義,在人工智能領域取得了主流的地位。
按理說,經過了這數十年的篳路藍縷,最后終于苦盡甘來,辛頓對于自己的研究領域應該表現出比以往更多的自信和樂觀才對。那么,是什么原因讓辛頓對自己的成果表現出了悔恨呢?
在他看來,如果按照這個趨勢發展,那么原來認為需要50年或者更久才能實現的強人工智能可能不到20年就會出現。如果這一天真的到來了,那么不排除出現AI屠戮人類、奴役人類的情形。遺憾的是,人們可能還沒有準備好這一切。在闡述了這些觀點后,辛頓用不無尷尬的口吻對記者說:“我用這個平常的借口安慰自己:要是我沒有這么做,別人也會這么做。”
在辛頓的上述“懺悔”被報道之后,關于在AI狂飆時代,應該如何應對AI所產生的各種問題又成為了社會熱議的話題。
遠慮和近憂
AI迅速發展,然后意識覺醒,最終從人類的造物成為奴役人類的主體,這個橋段在很多科幻電影中都出現過。但在之前,這個橋段更多是人類的一種想象,因為即使是十分樂觀的學者(如《生命3.0》的作者泰格馬克)也認為AI要超越人類,達到強人工智能的水平,至少要到本世紀末。然而,近半年AI領域的實踐卻告訴我們,人們或許是太低估了AI的發展了。過去,人們一直以創造性為人類獨有的能力,認為AI雖然可以在一些機械性、重復性的工作上超越人類,但人類依然可以在文學、繪畫等需要創造性的領域對AI保持持久的優勢。然而,幾乎是一夜之間,ChatGPT證明了AI可以比人類寫得更快、更好;Dall-E、StableDiffusion和Midjourney證明了創造畫作并非是人類的專利;而AlphaFold等模型則證明了即使是在科學探索領域,AI也可以做得非常棒。或許AI離凌駕于人類之上只差一個讓它覺醒自我意識的機緣巧合。如果是這樣,人類的未來又會是怎么樣呢?我們將面臨的是“終結者”還是“黑客帝國”?現在看來,這已經不再僅僅是科幻小說家們需要考慮的問題了。
當然,相比于上面這些問題,AI發展帶來的“近憂”似乎是更值得我們關注的。
第一,AI,尤其是最近的生成式AI的興起,正在對人們的就業造成巨大的沖擊。隨著AI的發展水平越來越高,很多原本由人類承擔的工作都可以由AI來代替。例如,OpenAI不久前發布的一篇研究報告表明,以GPT-4為代表的生成式AI將至少對80%美國勞動力的工作產生沖擊,并且白領工人受到的沖擊更大。目前,不少企業已經開始用GPT取代文案工作,例如有某4A廣告公司已經公開宣稱自己的廣告策劃將用GPT來完成;而Midjourney和StableDiffusion的普及讓大量的插畫師下崗。頗為諷刺的是,那些大規模研發AI的大型科技企業也是AI應用的重點單位,他們的老板正在用那些本公司發明的AI來取代自己的員工——其中的一些員工甚至也參與了替代他們的AI的研發。例如,IBM就在5月1日宣布,可能用AI替代7800個工作崗位,而谷歌則正在嘗試用AI取代一些初級的程序員。這些例子都表明,由AI造成的失業壓力或許是十分巨大的。
第二,是AI帶來的虛假信息和內容的泛濫。在前幾年,一些人已經開始用AI合成的語音來從事電話詐騙活動。而去年以來,生成式AI的大爆發更是大幅降低了虛假信息的制作成本。在這種造假和識假能力嚴重失衡的狀況下,整個互聯網,甚至整個社會上的造假活動都大規模增加了。很多人在并非出于惡意的情況下,也會用AI制作非真實的內容。比如,一些人會用AI生成一些搞笑的圖片或視頻,雖然他們的本意可能只是出于娛樂,但在客觀上也會對很多人造成認知上的巨大干擾。
第三,AI被一些人濫用,也給社會帶來了很大的威脅。在目前這個階段,AI主要還是一個工具,會根據人的指令去精確地完成各種任務。比如,目前的軍用無人機在AI的指導之下已經可以非常精準地擊中目標。如果這種技術的應用僅局限在戰爭上,那么它固然可以減少不必要的軍事人員消耗,也可以減少大規模破壞帶來的額外損失,但如果類似的技術被一些不法分子掌握,那它們就可能會成為公共安全的巨大威脅。
第四,AI引發的數據、隱私、知識產權等問題也十分引人關注。總的來說,最近幾年的AI進步主要是由機器學習(或者更確切的說,是機器學習中的深度學習)所推動的。為了訓練出強大的機器學習模型,就需要給AI“喂”海量的數據。通常來說,數據的規模越大,模型的性能也就越好——甚至有研究表明,相比于算法的改進來說,數據量的增加對于提升模型的性能所起的作用要更大。而在開發者搜集的數據中,就可能包括帶有個人信息或行為軌跡的數據,以及由他人創造的各種作品。其中,前一類數據的獲取可能引發隱私和個人信息泄露等問題,而后一類數據的獲取和使用則可能會引發知識產權相關的糾紛。如果這些問題不處理好,就會對經濟和社會產生非常負面的影響。
綜合以上分析,我們可以看到,在AI狂飆突進的時代,我們絕不能僅僅看到它所能帶來的便利和效率改進,還需要對它可能引發的風險和問題保持足夠的重視。
“堵”不如“疏”
用法律為AI的發展劃定軌道
我們應該如何面對AI飛速發展帶來的各種問題呢?一種最為直觀的思路就是停止對于AI技術的開發。早在古羅馬時期,韋帕薌就曾拒絕工匠向他進獻的先進運輸機器,理由是如果用了這種新機器,就可能讓自己的臣民大量失業。在韋帕薌之后的一千多年,當工業革命的浪潮席卷歐洲的時候,也有一部分人站出來,試圖通過摧毀機器來阻擋技術進步的步伐。但無論是皇帝還是工人,最終都沒能成功地阻擋技術進步,而技術進步過程中的問題也并沒有因為這種努力而消失。可以預料,在AI突進的時代,通過阻擋AI發展的方式來預防它可能帶來的問題的努力也同樣不會成功。
相比之下,“疏”似乎是更為務實可取的思路。也就是說,要允許和鼓勵AI的發展,但與此同時,也要對AI的發展進行規范和引導,為這匹狂奔的“野馬”套上韁繩。而要做到這一點,我們就必須綜合應用好法律、政策、市場,以及技術等各種手段。
近年來,面對AI技術的迅猛發展,各國都認識到了AI技術可能蘊含的風險,紛紛嘗試通過立法來為AI的發展劃定界限。
在全球的各大區域中,歐盟是較早開始著手對AI進行立法的。在過去幾年中,歐盟針對AI發展和應用當中產生的一些問題專門制定過一些法律法規。在最近,歐洲議會又剛剛就《關于制定確立人工智能統一規則以及修改部分聯盟法律的歐盟議會和歐盟理事會的條例的提案》(簡稱《人工智能法案》)達成了協議,這可能意味著世界上第一部“人工智能法”已經呼之欲出。
在《人工智能法案》中,有相當多看點。具體來說,該法案利用“基于風險的方法”(risk-basedApproach)將人工智能系統(AISystem)劃分為了四類:“不可接受的風險”(unacceptablerisk)、“高風險”(highrisk)、“有限風險”(limitedrisk)以及“最低風險”(minimalrisk)。在這四類風險中,具有前三類風險的AI系統都需要受到法案的監管。
“不可接受的風險”被認為是與歐盟的基本價值觀相違背(例如對基本人權的侵犯),需要完全被禁止。
“高風險”指的是作為關鍵基礎設施、執法或教育的工具的AI系統。這類系統的風險很大,但作用也很重要,因此不會被完全禁止,但需要在操作中保持高度透明,AI系統的提供者需要承擔較重的任務。具體來說,提供者應當做到幾點:(1)負有合規義務,確保高風險人工智能系統的預期使用目的符合規定,按照規定建立、運行、記錄并維持風險管理系統,并確保人工監管的準確性、韌性和安全性。(2)建立合理的質量管理系統,并以書面政策、程序和指令的形式有序地載明該質量管理系統,確保合規程序的執行、相關文件的草擬以及強有力的售后監管制度的建立。確保高危人工智能系統在投放市場或投入使用前,經過相關的評估程序。(3)擔負記錄保存義務。在人工智能系統投放市場或者投入使用之日起的10年內,提供者應保存技術資料、質量管理系統相關文件等以備檢查。依照與用戶的協議或法律規定由其控制高危人工智能系統自動生成的日志的,則提供者有義務保存上述日志。
《法案》對違規提供或使用AI的個人或機構規定了高額的罰款。具體來說,AI系統的提供者如果違反相關的禁止性規定或數據治理義務的,最高可以被處以3000萬歐元的罰款或全球年營業額的6%(以較高者為準);高風險AI系統的使用違反其他規定的,可以處以最高2000萬歐元或營業額的4%的罰款;向成員國主管機構提供不正確、不完整或具有誤導性的信息,將被處以最高1000萬歐元或營業額2%的罰款。
需要指出的是,在《法案》提交歐洲議會表決之前,還專門根據當前AI發展的現狀,加入了有關生成式AI的相關規定。例如,規定了提供生成式AI工具的公司必須披露他們是否在系統中使用了受版權保護的材料,以及生成式AI的模型的設計和開發必須符合歐盟法律和基本權利等。
美國目前還沒有全面的AI立法,不過聯邦、州和地方政府,以及某些具體的職能部門已經對一些問題進行了相關的立法實踐。比如,在2023年4月底,美國聯邦貿易委員會(FTC)、消費者金融保護局(CFPB)、司法部民權司 (DOJ)和平等就業機會委員會(EEOC)等四個部門就曾聯合發布聲明,稱將繼續針對AI系統執行現有的民權法,以避免人工智能“使非法偏見永久化”。根據這一聲明,這幾大監管部門將重點從AI可能產生偏見的數據集、大模型的透明度、系統設計的前提假設這三個方面入手,監管其潛在的歧視風險。
此外,美國國家電信和信息管理局(NTIA)也就人工智能審計和評估的發展發起征求意見。在這份征求意見稿中,NTIA承認了普遍存在共識的“AI監管難題”,包括如何權衡多重目標、實施問責機制的難度、AI生命周期和價值鏈復雜性帶來的挑戰、如何標準化評估等。而對于一些涉及更有爭議的、難以協調的、跨領域的標準難題,NTIA認為“根本不部署人工智能系統將是實現既定目標的手段”。
目前我國還沒有關于AI的系統性立法,但是針對AI發展過程中出現的各種問題,有關部門出臺相關規定也都非常及時。例如,不久之前,網信辦就公布了《生成式人工智能服務管理辦法(征求意見稿)》,對生成式AI發展做出了很多規范。
用政策及時回應AI發展中的問題
從根本上看,法律法規可以解決的主要是一些長期性的問題。但在AI的發展過程中,還經常會出現一些短期的、易變的問題。以AI對勞動力市場的沖擊為例,不同類別的AI模型的影響就很不一樣。在幾年之前,AI的發展方向主要是幫助人們完成一些重復的、繁瑣的預測性工作。在這種情況下,那些工作內容相對單一、原本收入較低的藍領工人就是受AI沖擊最大的群體。而在生成式AI崛起之后,擁有較高學歷、經過較長時間職業技能培養、原本收入較高的白領人士就成為了受沖擊最大的群體。很顯然,對于這兩種不同的沖擊情況,應對的策略應該是不同的。所以相對固定的法律并不適合于處理類似的問題,而相比之下,靈活的政策組合拳則是更為可取的。
而在政策的制定當中,有很多不同的思路。一種思路是回應性的政策,即在發現了問題之后,再研究相應的政策來加以破解;另一種思路則是前瞻性的政策,即主張通過政策的預判,率先制定好相關的政策。這兩種思路各有利弊,前者可能因為政策出臺的遲緩而延長了問題的影響時間,從而加大了由此產生的成本;后者則可能因為誤判而影響了AI正常發展的進程。在實踐當中,我們必須根據具體情況對這些成本進行權衡。大部分情況下,政策誤判帶來的成本可能是更大的。從這個角度看,或許看似笨拙的回應式政策會比看似高瞻遠矚的前瞻式政策更為可取。
AI的代碼之治
無論是利用法律還是政策來對AI進行治理,從根本上講都是用人在治理AI。隨著AI的發展越來越迅速,應用范圍越來越廣,這種治理方式的弊端會越來越明顯:一方面,AI治理所需要投入的人力、物力和財力要求將會越來越大,由此產生的巨量成本將是人們難以承受的;另一方面,無論是法律的制定還是政策的出臺,都需要一定的時間,因此它們必然具有滯后性。
在這樣的背景下,我們除了對AI進行“人治”之外,必然會需要應用各種技術的手段來對AI進行“技治”。具體來說,如下幾點是需要重視的:
首先,應當將一些根本性的原則寫入代碼,要求AI必須遵守。著名的科幻作家阿西莫夫曾在自己的小說《我,機器人》中提出過著名的“機器人三法則”:(1)機器人不得傷害人類個體,或者目睹人類個體將遭受危險而袖手不管;(2)機器人必須服從人給予它的命令,當該命令與第一定律沖突時例外;(3)機器人在不違反第一、第二定律的情況下要盡可能保護自己的生存。這個“三法則”非常有名,后來的很多小說,甚至與機器人相關的政策文獻中都經常加以引用。很多人認為,作為與機器人學有千絲萬縷聯系的學科,AI的發展也需要有一些類似的基本法則。例如,對于目前火爆的生成式AI的一大擔憂就是AI會用自己的造物作為材料,不斷進行新的創造,最終讓整個創造過程失控。針對這一情況,一些學者就建議,要將禁止這種“遞歸造物”作為一個法則寫入AI的底層代碼,以保證AI要進行新內容的創造必須經過人類的允許。通過這種方式,就可以有效地防止AI造物的無序進行。
以上思路非常有價值,但也存在缺點。因為人在構建法則的時候總是可能存在著這樣或那樣的漏洞,這就可能導致AI誤解這些法則,最終造成法則的失敗。以“機器人三法則”為例,機器人完全可以在遵守這幾個法則的前提下對人類造成傷害,比如出于保護人類安全的考慮,將人類像動物一樣圈養起來,而這顯然是人們不愿意看到的。由此可見,想要通過為AI制定一個法則來解決所有問題是不現實的。在實踐當中,人們還需要通過對AI進行持續的教育和溝通,以保證AI能夠明白人類制定法則的真正目標,讓自己的行為和這些目標始終對齊。目前,關于AI對齊性(AIalignment)的研究已經成為了AI研究中的一個重點。相信在未來,它也將是對AI進行“技治”的一個關鍵。
其次,應當充分利用AI的能力來輔助AI治理。比如說,現在基于AI的定向推送廣告給用戶帶來了非常大的困擾。如何來應對這個問題呢?一個方法就是開發一種“AI保安”,將自己的真實需要告訴它,讓它在接到推送廣告的時候根據用戶需要,以及廣告推送者的“信用”狀況來進行甄別,只有通過了甄別的廣告才被允許繼續推送給用戶。通過這種方式,就可以一定程度地破解定向廣告擾民的問題。
這里值得一提的是,在用AI輔助治理的過程中,非常重要的一點是用AI來訓練其他AI,以此來保證后者具有良好的價值觀。事實上,在ChatGPT的訓練過程中就已經應用了這一思路。在GPT-3被訓練完成后,它已經具有了十分強大的功能,不過,依然經常在一些涉及價值觀的問題上犯錯誤。比如,在涉及種族、宗教等問題的時候,它就經常會發表一些政治不正確的觀點。如何解決這一問題呢?OpenAI的做法就是用AI訓練AI。具體來說,先取GPT-3的一部分作為一個小模型,然后對這個小模型進行“基于人力反饋的強化學習”(ReinforcementLearningfromHumanFeedback,簡稱RLHF)訓練,也就是讓很多人類訓練員不斷地拿一些“敏感”問題和模型交流,并根據它的回答狀況進行打分。這樣,模型就會根據得分的狀況不斷地對自己的回答進行調整。在訓練達到了一定的量之后,這個模型就可以“出師”,成為一個價值觀上可靠的模型。這時,再讓這個模型作為“教練”,對原模型用類似的方法進行訓練,讓原模型可以通過不斷的訓練來樹立正確的價值觀。正是通過這種方式,OpenAI才最終得以用一個比較低廉的成本訓練出了ChatGPT這樣的產品。我想,這個經驗應該是可以在以后的AI治理實踐中進一步借鑒的。
再次,包括區塊鏈、隱私計算在內的其他技術也有助于AI的治理。例如,在生成式AI興起之后,一個十分困擾人的問題就是知識產權。一方面,AI訓練者可能違規使用網絡上的各種作品而不支付相應的報酬。另一方面,人們在使用AI創作相關內容時也無法證明自己在創作過程中所起的作用,因而也無法主張對應的知識產權。尤其是在現在各國的立法機關都傾向于認定AI生成物不能享有知識產權保障的情況下,一些對于作品的形成有較大貢獻的AI使用者將無法主張他們的權利。對于這些情況,區塊鏈技術將可以起到作用。借助于區塊鏈的可追溯性,人們就可以確認在產品生成過程中不同人、不同投入要素的作用,從而為最終的利益分配提供參考。又如,現在很多的AI任務都需要多個模型、多個單位之間進行協同,在這種情況下,利益的分配問題難以解決。而如果借助于區塊鏈技術,則可以較好地對每個參與方的利益進行記錄,并根據貢獻狀況來分配相應的通證予以激勵。此外,針對AI使用過程中可能帶來的隱私和信息泄露問題,則可以借助隱私計算等技術來進行解決。應用這些技術,就可以有效地破解應用法律和政策難以破解的AI治理難題。