日前,國務院辦公廳印發《國務院2023年度立法工作計劃》。其中值得注意的是,人工智能法草案等預備提請全國人大常委會審議,可見我國人工智能領域立法將邁上新臺階。
資料圖片 圖據IC photo其實,2017年國務院印發的《新一代人工智能發展規劃》就提出“三步走”的戰略目標,2020年,部分領域的人工智能倫理規范和政策法規初步建立。2025年,初步建立人工智能法律法規、倫理規范和政策體系,形成人工智能安全評估和管控能力。2030年,建成更加完善的人工智能法律法規、倫理規范和政策體系。
中國社科院法學所研究員、科技與法研究中心主任、博士生導師楊延超在接受紅星新聞采訪時表示,需要既考慮人工智能風險,又要考慮產業發展。人工智能還屬于技術發展的初期,不宜將很多問題規定得過細甚至過嚴。法律還應當以鼓勵產業發展為主,要確定大的紅線和負面清單的立法思想。所謂大的紅線和負面清單,就是考慮到人工智能可能給社會發展帶來的幾大危害,劃定紅線。比如人工智能不能用于詐騙、不能用于數據攻擊等。
為什么說人工智能立法條件已經成熟?
過去幾年,我國人工智能領域建章立制已經起步。2022年3月1日開始實施的《互聯網信息服務算法推薦管理規定》(以下簡稱“算法推薦管理規定”)中,生成合成類算法被列為五大類算法推薦技術之一(生成合成類、個性化推送類、排序精選類、檢索過濾類、調度決策類),受到監管。
2023年1月1日開始實施的《互聯網信息服務深度合成管理規定》(以下簡稱“深度合成管理規定“)中,將深度合成作為算法服務種類中高風險的算法率先立法監管,進一步加強了對該領域的監管力度。
為了進一步推動人工智能領域的規范和發展,國家互聯網信息辦公室于2023年4月11日發布了《生成式人工智能服務管理辦法(征求意見稿)》。
綜合以上三份文件,隨著算法和人工智能技術的發展,我國對其治理也形成了“算法治理——深度合成治理——生成式人工智能治理”的迭代路徑。
資料圖片 圖據圖蟲創意中國社科院法學所研究員、科技與法研究中心主任、博士生導師楊延超教授長期研究人工智能立法問題。在楊延超看來,以上幾部管理辦法的出臺,體現的是隨著人工智能技術的進步,立法工作也進步。
楊延超解釋,最開始出臺的推薦算法相關規則是因為很多平臺通過算法來提升服務,使用用戶畫像來計算用戶偏好,用戶不需要檢索,平臺就會自動推薦相關內容。推薦算法得到廣泛應用以后,最先出臺的便是關于推薦算法的管理規則。后來又出現了深度合成技術,包括“換臉”技術等,可以生成語音、圖像。這個過程也引發了人們對于權利的思考,包括是否會侵犯人身權等問題,所以出臺了深度合成的管理規則。今年年初,ChatGPT這種生成式人工智能引發了一系列挑戰,而且目前各個領域都在用大模型來完成生成式人工智能,生成文字、圖像,甚至代碼、視頻,可以看到人工智能已經具備了一定的資料整合、推理、邏輯分析的能力,這是過去人才具備的能力,所以會產生個人隱私、數據安全、知識產權保護等一系列問題。出于對這些問題的擔憂,又開始制定生成式人工智能的管理規則。這是一個技術與法律進化的脈絡。
之所以在今年提出要把人工智能法草案納入立法計劃,楊延超表示,是因為人工智能技術經過了多年的積累,今年得到了爆發式的增長。在整個技術產業中,大模型成為了一種突破,在此之前,某些局部領域,小模型解決了一定問題,但處在技術瓶頸中。這一次大模型的發展,帶來了全新的可以實現的能力。AI target=_blank class=infotextkey>OpenAI的試驗讓人們看到,大模型時代AI產生了類人的能力。在這么一個特殊的時期,立法者、管理者在思考產業發展的同時,也會考慮到相應的風險,通過把規則制定出來,保證行業健康發展。
楊延超表示,過去我國已經制定的法律包括《個人信息保護法》《數據安全法》,以及上述關于推薦算法、深度合成的部門規章,還有智能駕駛相關規定,都成為人工智能立法的前期積累。
對外經濟貿易大學數字經濟與法律創新研究中心執行主任張欣在接受紅星新聞采訪時表示,上述幾部法律規范雖然時間上有先后,但不是一個線性發展的過程,人工智能法草案其實早有籌備,并且一直在推動,在部門規章層面這種小切口的立法有較快推進。
張欣也提出,目前對于人工智能的立法,各方面的條件已經成熟,已經在次一層級有了一些低位階的立法,這對上位階的立法已經有了一定規范基礎。另一方面,公眾的數字素養和對立法需求的認知,包括科技企業的合規意識,還有相關的技術標準和倫理等有了一定完善。在整個制度基礎層面,人工智能法立法的基礎已經比較成熟。
立法困難何在?
人工智能技術還處于發展初期,挑戰重重
楊延超認為,目前立法的困難在于,人們對于人工智能技術的規律還不能說有很好的掌握,仍然處于探索期。對于人工智能技術可能產生什么樣的風險,還需要總結和摸索,甚至出現了一些破壞性案例以后才能逐步完善。所以目前的立法只能是相對原則性的立法。
“各個法律法規之間配套是一個比較大的挑戰。”張欣說,比如在法律層面,數據平臺和算法與人工智能密不可分。之前已經有了個人信息保護法、電子商務法、網絡安全法、數據安全法等,這些法律和即將制定的人工智能法之間的關系是怎么樣的,它的匹配是怎么樣的,需要進一步考慮。第二個挑戰是,目前我國已經在次一級的立法,比如部門規章、行政法規等層面已經有了一些立法的基礎,在做更高位階的基礎性法律時,如何和下面的這些已有的法律規范進行匹配。
資料圖片 圖據IC photo張欣說,第三個挑戰在于人工智能領域變化非常快,尤其是技術發展,生成式人工智能的出現。比如,歐盟的《人工智能法案》,制定的時候如果沒有ChatGPT出現,它可能不會是今天的這么一個迅速改動的面貌,可能基本上已經通過了。但因為ChatGPT的出現,打亂了它制定的節奏。從歐盟《人工智能法案》的制定就能看出,人工智能領域立法的滯后性越來越明顯。因此,不管對于我國還是其他國家,人工智能立法既做到包容審慎,又給科技創新留下比較充足的彈性空間,能夠具有一定前瞻性難度非常大。這可能需要立法技術上,包括立法制度上有一個開放、動態的彈性空間。
立法需要關注什么?
人工智能涉及方方面面,需關注算力、算法、數據
人工智能會涉及到生產生活的方方面面,比如內容治理、數據保護、知識產權、智能駕駛等,也有人工智能技術開發中的技術倫理,人工智能應用、服務中可能產生的侵權問題等。是否這部法律也會像一個法典一樣龐大?人工智能法草案會有哪些內容是必備的?
資料圖片 圖據圖蟲創意楊延超表示,人工智能在各個領域都有表現,比如無人駕駛、知識產權、金融等,在每個領域表現出來的法律關系、權利義務、法律責任都不同。立法的過程大概率會從部門法中產生的問題進行逐步梳理總結。
楊延超舉例,比如在無人駕駛領域,產生的法律規則已經非常復雜,但是它的特點與生成式人工智能不同,需要做的是對傳統交通法規的變更,過去駕駛員變成了機器,這里面對于交通事故過錯責任、侵權責任的理解都會產生根本性變化。其他領域也是如此,立法應該在細分的領域有深耕細作,然后抽象出來做法典化升級。
張欣也認為,參照個人信息保護法、網絡安全法。人工智能法作為一個基礎性的法律,可能不會像歐盟的《人工智能法案》一樣那么長;可能就人工智能的用戶,服務的提供者、開發者、部署者,這些主體的權利義務責任理清楚,而不會像一個法典那么龐大。
那么人工智能立法應該有哪些必備內容?楊延超表示,不論什么領域的人工智能立法,都離不開人工智能三個要素的規定和三個原則的考量。所謂三要素就是:算力、算法、數據,因為不管解決什么樣的人工智能問題都離不開這三個要素。所謂三個原則就是:產業發展、權利保護、倫理考量,制定的法律要保護人的權利要經得起現代人倫理的考慮,還要能夠促進產業的發展。
如何處理好風險與發展的關系?
專家建議劃定紅線:人工智能不能用于詐騙、數據攻擊
制定法律如何既規避亂象,又不限制技術發展,實現良法善治?楊延超表示,這就要既考慮人工智能風險,又要考慮產業發展。因為目前還屬于技術發展的初期,不宜將很多問題規定得過細甚至過嚴。整部法律還應當以鼓勵產業發展為主,要確定大的紅線和負面清單的立法思想。所謂大的紅線和負面清單就是考慮到人工智能可能給社會發展帶來的幾大危害,劃定紅線。比如人工智能不能用于詐騙、數據攻擊等。劃好紅線,任何產業發展不能逾越。這樣既給了產業發展極大空間,又保障了人類社會基本安全不會受到侵犯。
張欣表示,人工智能治理一方面要進行敏捷治理,同時又要保證治理具有韌性。在提出這個治理架構和目標之后,要依靠一系列的治理工具將它落地,比如在人工智能領域中,算法影響評估、算法認證、算法審計等都是非常好的治理工具。有了這些工具之后就可以保證它跟這些技術的發展是不斷同態調整的,這是一個持續動態調整和調優的過程。在人工智能領域當中,不管是進行立法,還是在整個治理過程中,需要依賴一系列治理工具把它落地。
紅星新聞首席記者 吳陽 實習生 李晨笑 北京報道