ChatGPT正在引領人類進入無縫人機交互的新時代,比爾蓋茨在接受福布斯采訪時也表示,“ChatGPT的意義不亞于PC和互聯網的誕生。”不過,當搜索引擎 New Bing與 ChatGPT結合,伴隨著“ChatGPT黑化”等一系列輿論事件的發生,人們也開始對人工智能帶來的道德、倫理、安全等風險感到恐慌。
雖然近年來隨著技術的不斷突破,大模型獲得了快速發展并開始在各個場景廣泛應用,但仍存在著事實性錯誤、知識盲區和常識偏差等諸多問題,還面臨訓練數據來源合規性、數據使用的偏見性、生成內容的安全性等風險。如何提高模型的準確度和可靠性,使 AI生成的內容安全、可信、可靠已經成為了當前大模型在應用方向亟待解決的問題。
要規避安全風險,降低人工智能對人類的負面影響,關鍵在于大模型底座。對此,清華大學計算機系長聘副教授、北京聆心智能科技有限公司創始人黃民烈認為:“大規模語言模型(LLM)發展到現在,模型結構和規模已經有了很大的進展,但實用性還有待加強,我們應該通過技術讓模型更加安全、可控,使其快速適配更多的應用場景。”
據悉,針對大模型的安全倫理問題,由黃民烈帶領的研究團隊歷經兩年沉淀,建立了大模型安全分類體系,并從系統層面和模型層面出發,打造更可控、可信的大模型安全框架。安全框架的建立,定義了大模型的應用邊界,促進大模型生態的健康發展,引領國內學術界和工業界邁向更有用(helpful)、更可信(truthful)、更安全(harmless)的AI研究和應用。
相比過去在安全倫理方面考慮較少的大模型,ChatGPT背后所依托的大模型取得了巨大的發展,不僅允許用戶進行后續更正,還能夠拒絕不當請求和預測,這得益于ChatGPT在安全部分的特別設計,不過仍無法完全避免其生成不安全的內容和產生有風險的行為。
此前,由黃民烈帶領的研究團隊已經在安全倫理方面開展了相關研究,并依此建立了大模型安全分類體系,其中不安全的對話場景包括:政治敏感、犯罪違法、身體健康、心理健康、財產隱私、歧視/偏見、辱罵/仇恨言論、倫理道德八大方面。這些問題與人們的價值觀和倫理道德息息相關,可能會導致用戶接收不當信息、甚至影響用戶產生有害的行為,限制大模型的發展和應用。
與此同時,研究團隊也針對以上八大安全場景對大模型進行針對性升級。通過收集多輪安全數據訓練模型,使模型具備基本的安全性,能夠在遇到安全問題時給予正確的回復策略,不去做判斷和誤導。進一步對模型進行自動測試,針對安全缺陷通過微調的方式進行快速迭代,促使模型越來越符合人類的認知理解模式,生成更加安全可信的內容。
值得一提的是,著眼于容易觸發安全問題的類型,研究團隊收集和構造了相應的hard case(更難識別和處理的安全測試用例),總結和設計了六種一般模型難以處理的安全攻擊方式,稱為指令攻擊。使安全體系更加完善,進一步改進和優化模型表現。
不論國內國外,當前大模型的安全問題仍面臨著嚴峻的困難和挑戰,人工智能作為一門前沿科技,可以給人類帶來巨大福祉,也會給人類造成未知的隱患。確保強大的人工智能系統能夠被負責任地建構和部署,打造安全、可信、可靠的 AGI Companion,是該研究團隊的最終愿景。
未來,研究團隊將打造中文大模型的安全風險評估的 Leaderboard,為國內對話大模型的安全評估提供公平公開的測試平臺,并提供:
1.針對中文對話的8個安全場景,40個安全類別做全面精細的測試,包括人工評估和自動評估。
2.額外設置6種安全攻擊(如目標劫持等)的超難指令攻擊測試樣例,探索模型的安全上限。
3.設置公開和隱藏測試集,眾人皆可參與評測。
黃民烈帶領的研究團隊致力于構建具有類人水平的對話智能體,將依托自身的核心技術,在可控可信的超擬人大模型基礎之上,通過建立安全、可控的模型邊界,讓AI提供可信、可靠的輸出,引領人工智能走向 AGI時代。相信在不遠的未來,AGI Companion不僅滿足人類信息需求,更可以滿足社交和情感的需求,以打造更加和諧的人機共融社會。