今年以來,以ChatGPT為代表的人工智能通用大模型快速發展,隨之而來的是對AI安全風險問題關注度的陡然提升。在近日召開的2023北京智源大會上,中外多位人工智能頂尖專家熱議AI安全倫理和風險防范問題。
OpenAI聯合創始人山姆·阿爾特曼呼吁:為AI構筑“安全護欄”,使之更好地服務人類。北京智源人工智能研究院院長黃鐵軍表示,隨著人工智能大模型出現了“涌現”能力,其不可預知性確實帶來了巨大的挑戰。被譽為“AI教父”的杰弗里·辛頓也在智源大會上再次表達了對人工智能技術風險的擔憂。
隨著AI應用越來越廣泛,首當其沖的風險就是生成內容的真實性、準確性。OpenAI發布ChatGPT時指出,由于所使用的訓練數據及訓練方法的原因,ChatGPT有時會寫出聽起來很有道理但不正確或無意義的回答。當前,無論是GPT-4,還是其它通用大語言模型,均存在這樣的“AI幻覺”。
對于醫療、自動駕駛等領域而言,這是一個非常嚴肅的安全問題。例如醫療行業的診斷、治療等場景要求高精準度,不容有失,而通用大語言模型缺乏深入的醫療專業領域知識、經驗及復雜推理過程,在面對醫療問題的準確性上存在天然缺陷。因此,醫療行業需要更高質量、足夠專業的垂類模型,提供更精準回應,消除大模型幻覺。
但由于醫療行業的復雜性(醫療領域知識體系極其龐大),構建醫療垂直領域大語言模型的知識門檻也更高,不僅需要AI技術基礎,還要具備足夠的專業醫療知識儲備。據悉,國內醫療AI頭部企業醫渡科技正在研發醫療垂直領域的大語言模型。
公開資料顯示,醫渡科技在醫療AI領域已經深耕多年,一直通過AI技術賦能監管機構、醫院、藥企、險企和患者,其自主研發的“醫療智能大腦”YiduCore擁有強大的數據處理能力,積累了大量的醫學知識和洞見,內部人才團隊80%以上都具備醫學或人工智能背景,橫跨技術和醫學的交叉性人才近100名。
醫渡科技具備研發垂類大模型的醫療數據、知識壁壘,以及NLP、深度學習等核心AI技術和交叉性人才儲備,期待其給醫療AI的發展開啟更多想象空間。