(2022年9月3日,上海)在2022 WAIC世界人工智能大會“亞洲科技倫理治理與可持續(xù)發(fā)展論壇”上,商湯科技正式發(fā)布《“平衡發(fā)展”的人工智能治理白皮書——商湯人工智能倫理與治理年度報告(2022年)》(以下簡稱“報告”),深入探討并分享了商湯在推動AI治理落地進程中的洞察、思考、目標(biāo)與實踐。商湯科技智能產(chǎn)業(yè)研究院院長田豐受邀出席并就白皮書的重點內(nèi)容作了解讀。
報告指出,當(dāng)前,人工智能治理已經(jīng)進入了以技術(shù)驗證為主的落地實踐階段。今年以來,新加坡、歐盟、美國、中國等國家的監(jiān)管機構(gòu)和第三方機構(gòu)紛紛發(fā)布AI治理測試工具箱、技術(shù)監(jiān)管沙箱,推進AI治理的落地實施。
作為全球領(lǐng)先的人工智能軟件公司,商湯始終高度重視人工智能治理,去年正式提出了“平衡發(fā)展”的人工智能倫理觀,同時明確了“以人為本、技術(shù)可控、可持續(xù)發(fā)展”的倫理原則。隨著人工智能治理進入落地實踐階段,商湯此次進一步提出了發(fā)展“負(fù)責(zé)任且可評估”的人工智能,并將其作為商湯開展人工智能治理的愿景目標(biāo),打造倫理治理閉環(huán)。
人工智能治理進入落地實踐階段,負(fù)責(zé)任且需可評估
從發(fā)展歷程看,人工智能治理至今已經(jīng)經(jīng)歷了以原則討論為主的1.0階段,以政策討論為主的2.0階段。進入2022年,隨著全球人工智能治理進程的持續(xù)推進,以及可信、負(fù)責(zé)任人工智能等相關(guān)理念的持續(xù)滲透,有關(guān)驗證人工智能治理如何落地實施的倡議日益增多。人工智能治理開始進入以技術(shù)驗證為主的3.0階段,即落地實踐階段。
而目前,人工智能治理的落地實踐仍面臨許多挑戰(zhàn),各行各業(yè)需要重點處理“理念與行動”、“政策與實踐”、“技術(shù)與用戶”三組關(guān)系,即將人工智能倫理的共同原則付諸實施;將政策要求轉(zhuǎn)化為技術(shù)和業(yè)務(wù)團隊可執(zhí)行的實踐標(biāo)準(zhǔn);處理好技術(shù)與用戶間的關(guān)系,推動用戶對AI治理的認(rèn)知,最終才能深入推進人工智能治理。
為有效地推進人工智能治理,商湯科技基于對全球人工智能治理訴求的分析,結(jié)合自身對技術(shù)和市場的理解,在白皮書中提出,“人工智能治理應(yīng)當(dāng)是一個價值牽引、技術(shù)先行、多方參與、分層推進的動態(tài)進程”,為人工智能治理的落地實踐建立了有效路徑。
從治理效果看,人工智能治理的實現(xiàn)由低至高,可分為可用、可靠、可控、可信四個層次。其中,“可用”是指人工智能系統(tǒng)在功能、性能層面應(yīng)當(dāng)能夠滿足應(yīng)用場景需求;“可靠”是指人工智能系統(tǒng)在安全性、魯棒性層面應(yīng)當(dāng)能夠滿足部署環(huán)境和可持續(xù)運營要求;“可控”是指人工智能系統(tǒng)在功能層面應(yīng)當(dāng)能夠充分保護人類的自主意志和權(quán)利、保障人類對系統(tǒng)的控制權(quán);“可信”是指人工智能系統(tǒng)的設(shè)計和應(yīng)用應(yīng)當(dāng)符合人類的價值理念和倫理道德。
人工智能治理的“分層目標(biāo)”
因此,人工智能治理體系建構(gòu)的目標(biāo),就是發(fā)展負(fù)責(zé)任的人工智能,需要做到有跡可循、有據(jù)可查?;?ldquo;平衡發(fā)展”的倫理觀,“以人為本、技術(shù)可控、可持續(xù)發(fā)展”的倫理原則,商湯此次于行業(yè)首次提出發(fā)展“負(fù)責(zé)任且可評估”的人工智能,并將其作為開展人工智能治理的愿景目標(biāo)。
“負(fù)責(zé)任且可評估的人工智能”的核心要求
構(gòu)建覆蓋全生命周期的治理體系,打造AI治理閉環(huán)
作為業(yè)界最先組建人工智能倫理與治理委員會,并將倫理治理工作當(dāng)作公司戰(zhàn)略級方向的科技創(chuàng)新企業(yè)之一,商湯自2020年1月統(tǒng)籌推進人工智能倫理治理工作體系建設(shè)以來,已在內(nèi)部開展大量治理創(chuàng)新實踐,并形成了一整套可評估的人工智能治理落地方案,將倫理原則嵌入到產(chǎn)品設(shè)計、開發(fā)、部署的全生命周期,初步形成了人工智能治理閉環(huán)。
在數(shù)據(jù)風(fēng)險方面,商湯將個人信息保護融入產(chǎn)品研發(fā)全生命周期,設(shè)立“數(shù)據(jù)安全與個人信息保護委員會”,實施個人信息保護評估審查,確保產(chǎn)品遵循默認(rèn)符合個人信息保護的設(shè)計要求。
在算法風(fēng)險方面,商湯作為領(lǐng)先的人工智能企業(yè),主動承擔(dān)算法開發(fā)者的主體責(zé)任,針對商業(yè)化算法場景,開展基于真實場景下的算法驗證與評測,實現(xiàn) AI 技術(shù)的真正可信與可控。
在應(yīng)用風(fēng)險方面,商湯持續(xù)完善人工智能倫理治理體系,建立覆蓋設(shè)計、開發(fā)、部署全生命周期的產(chǎn)品倫理風(fēng)險審查流程;緊隨全球人工智能行業(yè)發(fā)展變化,建立“全球AI倫理風(fēng)險庫”;定期組織員工進行人工智能倫理培訓(xùn),持續(xù)完善內(nèi)部倫理傳播體系,不斷提升員工倫理素養(yǎng)。
商湯AI治理閉環(huán),推進構(gòu)建負(fù)責(zé)任且可評估的AI
為保障人工智能治理體系的有效落實、推動形成倫理治理“人人有責(zé)”的企業(yè)文化,商湯還建立了倫理風(fēng)險目標(biāo)管理機制、倫理風(fēng)險事件處置機制和倫理治理質(zhì)量控制機制。此外,為推動發(fā)展“負(fù)責(zé)任且可評估”的人工智能,商湯還在內(nèi)部開發(fā)了一系列覆蓋數(shù)據(jù)治理、算法測評、模型體檢、倫理審查的流程工具和技術(shù)平臺。
隨著人工智能逐漸深入產(chǎn)業(yè)應(yīng)用,AI的發(fā)展與治理之間的關(guān)系正如汽車的“發(fā)動機”和“方向盤”一樣,相輔相成、缺一不可。在本次論壇上,商湯科技智能產(chǎn)業(yè)研究院科技政策與倫理研究主任宮超還受邀出席《擁抱科技倫理治理體系,賦能可持續(xù)發(fā)展之路》圓桌討論,結(jié)合商湯在AI治理方面的實踐成果,與行業(yè)嘉賓深入探討了商湯的AI治理主張,他強調(diào),商湯將持續(xù)推動發(fā)展負(fù)責(zé)任且可評估的人工智能,為AI治理實踐不斷貢獻(xiàn)完善、可行的落地方案。