人工智能治理伴隨著人工智能技術的全球勃興,正在成為人類社會共同關注的重要議題。近年來伴隨著人工智能技術的更廣泛應用,人工智能治理問題從零散無規律的單點問題,演進成為有統一特征的共性問題。各國政府、企業、行業專家的共識是,解決人工智能治理問題不能簡單的“頭痛醫頭,腳痛醫腳”,應該從紛繁復雜的案例之中抽象出人工智能治理的原則性思路與解決方案,才能有效應對與人工智能更加深入綁定的未來AI社會到來。
2021年1月18日,曠視人工智能治理研究院攜手權威研究機構人民智庫聯合發布《2020年度全球十大人工智能治理事件》,回顧并分析了過去一年中最具理論價值、實踐價值、新聞價值、以及研究價值的人工智能大事。在日益迫切的人工智能治理需求之下,十大事件成為了目前國內關于人工智能治理的最佳討論契機和發聲平臺,在十大事件討論區之下,聚集了國內的知名學者暢談AI治理,專家們各抒己見中都反映了國內AI治理的現狀、及未來發展趨勢,諸如“多元共治”、“敏捷治理”等原則性觀點在十大事件中得以進一步凸顯并成為普遍共識。
人工智能治理的下一步:從倫理討論到治理落地
在之前的很長一段時間內,“人工智能倫理”在媒體報道和行業會議之中都作為高頻詞匯出現,而與其類似的“人工智能治理” 的內涵和范疇卻很少被提及和厘清。北京大學光華管理學院金融學助理教授盧瑞昌表示原因有三,“第一,眾多機構和國際會議更多停留在人工智能議題探討階段,較少能夠真正出臺相關的治理報告和倡議;第二,行業參與者經常將人工智能治理與人工智能倫理這兩個概念混用,誤以為倫理道德標準的制定即為治理。第三,即使是已經出臺的人工智能的相關治理報告和倡議,亦缺乏進一步更為明確的治理路徑與方案,因此不能推動具有共識性和約束力的全球治理機制的產生”。
相對應的,盧瑞昌教授認為人工智能治理應當是一項系統性工程,“隨著人工智能技術社會影響力的增大,人工智能治理要落到實處就需要厘清和建立具體的、可執行的制度安排”。從體系上講, “人工智能治理的具體范疇應該是在人工智能倫理的標準下,對管理和執行人工智能倫理規范的制定,以及后續的維護、監管、問責等具體機制的建立和執行。同時,正如人的理性認知是動態變化的,人工智能治理的內容也是一個協調多個利益相關方且持續互動的過程”。
在原則方面,北京大學中國社會與發展研究中心主任邱澤奇教授認為AI治理的基本原則是促進人類福祉的帕累托改進和社會最優,“至少在通用AI獲得社會合法性之前,依然是針對人類自身的治理”。在這個邏輯前提下,“倡導AI向善,應作為促進AI發展的基本治理原則。在未得AI危害的前提下,倡導大膽的AI技術和應用創新,運用AI提升改善社會福祉的效率,應是治理的第一優先原則;而不宜反其道而行之,因噎廢食。在獲得AI之于大多數人危害的前提下,運用社會規則遏制危害,用AI改善AI,則是AI治理的第二優先原則”。
多元共治:智能物聯網社會作用下的必然結果
在外賣算法問題下,算法一步一步逼近外賣騎手的時間極限,騎手為保證不超時選擇闖紅燈等危險方式。針對該問題,清華大學公共管理學院教授、清華大學人工智能國際治理研究院副院長梁正提出了多元主體共治治理體系。梁正教授認為,“人工智能治理問題不是某一個單一主體可以解決的。我們可以看到,在這個案例里還包括交通規劃、收入保障體系不到位等問題,我的結論是——我們需要一個多元主體共治的治理體系。”
人工智能是否必須采取多元共治的治理體系,各方專家學者的觀點普遍是肯定的。對此,清華大學社會治理與發展研究院院長、教授,清華大學社會創新與風險管理研究中心研究員張成崗提出了“系統之系統”概念。以車聯網這個典型場景為例,“智能物聯網發展的原始動力主要來自于對密集的、高變動性的‘物的流動’的管理和控制需要”。是愈發復雜的物聯網需求促動人們使用人工智能,而在使用人工智能的同時必須把“城市交通管理、共享單車管理以及無人駕駛出租車管理”整合,讓“商業、運輸、通信、能源等城市運行的各個系統整合為‘系統之系統’。”
作用到立法領域,清華大學法學院院長、博導申衛星提出了構建綜合性立法和具體場景立法相結合的“總-分”式立法體系。綜合性立法是進行人工智能頂層設計的最佳形式,通過專門的中央立法可以強有力地指導各地、各領域的人工智能發展。具體場景分別立法的領域包括自動駕駛、自動化決策、精準醫療等,區分不同行業和場景對人工智能技術進行規范。在統一管理的多元體系下,“總-分的立法體系設計將有利于增強國內外對于中國人工智能技術的信任度,提升人工智能國際競爭中的軟實力”。
敏捷治理:人工智能治理未完善狀態下的基本原則
人工智能治理目前尚處于初步發展階段,人類社會尚未建立起完善的法律法規體系和道德規范。如果遇到人工智能治理問題,如何在各方條件不夠完善的情況下對人工智能治理事件快速做出正確的反應,是專家學者們共同思考的關鍵點,“敏捷治理”概念因此應運而生。清華大學人工智能國際治理研究院院長薛瀾認為,“很多治理問題可以通過技術本身來解決,目前人工智能發展面臨的最大挑戰是:人工智能技術發展太快,而治理準則作為一種社會體系,其發展有其程序,又是緩慢的,因此,我們需要‘敏捷治理’。”
敏捷治理的積極作用在于“不因噎廢食”,能夠在人工智能動態發展的過程中持續解決人工智能治理問題。曠視首席發展官、曠視 AI 治理研究院院長徐云程提出,“人臉識別技術只是深度學習相對成型和商業應用比較廣泛的一類技術,在新技術不斷成熟的過程中,我們應該用怎樣的方法來解決不斷涌現出的新問題。個人希望,人臉識別技術能夠為人工智能時代打造一個樣本,即在面對新出現的倫理問題時,不因噎廢食,同時又能建設性地解決問題。”
在人工智能快速發展的過程中,也有學者呼吁不要“盲目人工智能化”。 南開大學經濟與社會發展研究院教授杜傳忠曾撰文,“一個令人憂慮的現象是很多地方和企業無視制造業智能化的內在邏輯及要求,一窩蜂式地推進制造業智能化,盲目上項目、擴投資。這樣推進制造業智能化,蘊藏著一定的危險性,特別是在這個速度化時代,一旦失誤將損失巨大,甚至直接關系到企業存亡和行業發展前景,進而影響國家整體經濟運行。”
因此,在敏捷治理的前提下,人工智能治理相關法律法規盡快出臺仍然是重中之重,這意味著人工智能治理真正能夠有法可依。哈爾濱工業大學深圳研究生院教授、博導徐勇表示,“需要運用法律和道德對AI技術的研發和應用進行約束,正確引導企業的價值觀”。加強法律法規對人工智能的約束也能在一定程度上避免不健康的“超級權力”出現, 復旦大學計算機科學技術學院教授、博導張軍平表示,“一方面可以多依靠超級權力在大的、相對成熟的技術方面持續發力,讓公眾有更多的獲得感、幸福感、安全感,另一方面也應考慮對小企業給予更多的優惠政策,鼓勵其在人工智能或相關領域從事研究和應用,保證其良好的生存和發展空間”。
人工智能治理,是人類進入人工智能時代所必須要面對的持久命題。人工智能治理的長久發展,還需要更多人持續不斷的摸索與實踐,讓人工智能更好、更安全、更高效的造福人類社會。曠視AI治理研究院自成立以來,以企業的AI治理研究為己任,持續聯合外部專家和學術機構,產學聯合進行深入的AI治理研究。《2020年度全球十大人工智能治理事件》下,專家學者共同總結的“多元共治”、“敏捷治理”等原則,為人工智能治理總結了初步的方法與經驗,也讓曠視AI治理研究院新一年的學術研究有了個好的開始。