今年上半年大模型產品和概念火出圈,也引發了一系列問題和擔憂。
10月19日,在2023第六屆SSC網絡安全大會上,西安電子科技大學教授王皓表示:“大模型迅速發展所暴露出的安全問題,在做好監管亟的同時,要加強對于網絡安全人才的培養”。
王皓在第六屆SSC網絡安全大會以“大模型時代的數字安全法治人才培養初探討”為題演講
2022年底chatGPT的爆發,帶來了巨大的技術變革,在國內外引起了廣泛討論以及關注,國際上各類通用大模型迅速相繼涌現。發展至今通用大模型已經突破自然語言屏障,升華為多模態的生成式人工智能工具。能夠真正像人類一樣來聊天、交流,完成撰寫郵件、文案、代碼、論文等復雜任務。目前,國內外眾多網絡科技公司紛紛推出了自己的通用大模型,如華為的盤古系統,訊飛的星火系列以及百度的文心一言。
大模型由于發展時間短,信息保護比較脆弱,容易導致信息泄露。此外,別有用心的群體或個人設計了“邪惡大模型”,通過創建破解工具、釣魚郵件、甚至惡意的攻擊軟件,進行一些危害個人或者社會的事情。”王皓說道。
目前,全球范圍都已意識到大模型迅速發展所暴露出的問題。我國上半年出臺了《生成式人工智能服務管理暫行辦法》,歐洲、美國也頒布了一些初級的協議、權力法案,開始加強對大模型的約束。
除了通過立法加強AI監管、通過技術進步不斷完善大模型外,我們也要加強對于網絡安全人才的培養。王皓表示,“西安電子科技大學通過構建‘安全人才’培養與‘人才安全’培育雙促進、雙保障格局,加強信息安全學科建設、加快信息安全人才培養”。