【ITBEAR科技資訊】7月26日消息,近期微軟的大規模藍屏事件在全球范圍內引起了廣泛關注,這一事件不僅揭示了軟件BUG可能引發的巨大風險,同時也讓人們開始思考,在AI時代,類似的問題可能會帶來更為嚴重的后果。
在此背景下,中國人工智能產業發展聯盟(簡稱“AIIA”)安全治理委員會的成果發布會備受矚目。AIIA秘書長、中國信通院院長余曉暉在會上強調,當前人工智能安全治理亟需行業各方的共同努力。他提出,應完善人工智能安全風險識別的方法論,構建更為敏捷、精確的安全風險識別機制,從而能夠及早、準確地發現潛在風險。此外,加強人工智能安全評測技術工具的研究也至關重要,旨在通過技術手段來有效治理技術本身所帶來的問題。
據ITBEAR科技資訊了解,AIIA安全治理委員會已經圍繞人工智能的治理框架、風險管理、內生安全及安全應用等方面展開了深入的理論和技術研究工作。為了應對AI帶來的安全挑戰,該委員會推出了一系列舉措。
在發布會上,人工智能安全守護計劃正式啟動。該計劃旨在打造AI Guard品牌,通過建立AI系統情報共享機制和AIGC真實性和可信賴來源互認機制,提升國內AI技術服務提供方和使用方的安全防護能力。同時,推動設立與人工智能相關的保險產品,為行業提供更多保障。
中國信通院人工智能所的黑一鳴博士還發布了自研的大模型安全加固解決方案。該方案通過模型微調、外掛安全知識庫等方式對開源大模型進行安全防護加固,旨在保持模型原有通用能力和推理效率的同時,增強其抵御多種誘導攻擊的能力。
人工智能具有高度的技術交叉性和產業融合性。中國法學會法治研究所研究員劉金瑞指出,法學專家在了解技術特征的基礎上,才能設計出有效的規范方案。隨著人工智能的不斷發展,國家層面已經開始通過小切口的方式進行立法,涉及深度合成、算法、AIGC等領域,并出臺了如科技倫理審查辦法等相關法規。
總體來看,人工智能的安全治理需要技術、法律和行業各方的共同努力。通過不斷完善風險識別機制、加強技術研究和立法保障,我們可以更好地應對AI時代的安全挑戰。