2018年以來,以BERT、GPT等為代表的大規模預訓練模型,帶來了人工智能領域新的突破,由于其強大的通用性和卓越的遷移能力,掀起了預訓練模型往大規模參數化發展的浪潮。其中微軟、谷歌、Facebook、NVIDIA等諸多公司在預訓練算法上持續大量投入。國內如百度、華為、阿里等公司也相繼投入到大規模預訓練模型算法的研究中。現階段,在中文自然語言處理方向上,預訓練也如雨后春筍一樣涌現。現有算法主要依賴純文本學習,缺少知識指導學習,模型能力存在局限。
2021年10月13日,騰訊云小微與騰訊AI Lab聯合團隊提出了基于知識的中文預訓練模型——“神農”,該模型僅包含十億級參數量,并一舉登頂CLUE總排行榜、1.1分類任務、閱讀理解任務和命名實體任務四個榜單,刷新業界記錄。
10月13日,“神農”刷新CLUE分類榜單紀錄;HUMAN 為人類標注成績,非模型效果,不參與排名。
同時,“神農”登頂CLUE閱讀理解、NER榜單,刷新業界記錄。
作為中文語言理解領域最具權威性的測評基準之一,CLUE涵蓋文本相似度、分類、自然語言推理、閱讀理解、NER等眾多語義分析和理解類子任務。近段時間,各大公司紛紛用CLUE作為預訓練算法能力的驗證和衡量標準。此次登頂CLUE榜單,不僅代表了云小微與騰訊AI Lab聯合團隊在中文預訓練研究領域達到業內領先水平,并且推動中文預訓練模型在理解和推理方面提升了一個新高度。
聯合團隊致力于將知識融入預訓練模型,進而充分發揮已有參數下的模型潛力。模型結構方面,“神農”基于 Transformer 架構,僅包含十億級的參數量。從數據量來看,“神農”以數百 GB 級的平文本做基石,涵蓋百科、論壇博客、新聞、財經等眾多領域的高質量文本。相對于業界其他中文預訓練模型,“神農”在以下三個方面獲得了突破性進展:
第一,“神農”從兩個角度對知識進行建模,分別是“通用型推理知識”和“任務型知識”。通用型知識指的是現有知識,比如詞法、句法、圖譜等,這類知識的特點是通用性強,覆蓋度廣。雖然能整體提高模型的能力,但是在特定場景中往往不容易發揮作用。而任務型知識旨在挖掘場景下特有的知識,并通過將其泛化來提升預訓練模型的能力。二者可謂相輔相成。
第二,聯合團隊將漢語中典型的篇章推理知識作為通用知識融入預訓練過程中,如因果、對比、遞進、轉折關系等。中文是表達極其豐富的語言,存在大量指示性的虛詞。這些虛詞在中文的語義理解中起著至關重要的作用。比如:
這段話的語義可謂一波三折,而引起語義起伏變化的正是這些虛詞。通過引入這類知識可以強化模型對中文的理解能力。
第三,“神農”提出基于對比學習的任務型知識挖掘和融入算法。通過定義知識模板,該算法可以為指定任務“定制知識”,并將其融入到訓練過程中。另外,“神農”將挖掘出來的知識在大規模單語文本中進行泛化,大大提高了知識的表達能力。
“神農”正是通過充分利用這兩類知識,進一步強化了中文預訓練模型的能力,在包含文本分類、閱讀理解等多類任務上表現出色。
一直以來,騰訊云小微團隊和騰訊AI Lab團隊持續深耕知識挖掘、語義理解技術以及預訓練技術。云小微方面,依托自研的知識挖掘算法和深度學習技術,基于平臺對行業知識的長期積累,能快速搭建多個領域的知識結構,有效地從非結構化文件中抽取關鍵信息,為行業提供全流程知識構建服務。在此加持下,團隊通過將行業知識與預訓練技術相結合,可以更好地服務應用,為各行各業輸出完整的AI解決方案,不斷滲透智慧生活各個場景。目前已在智能網聯汽車、智慧文旅、智慧教育等多行業領域落地應用,服務廣泛的用戶群體。騰訊AI Lab始終強調研究與應用并重發展,其研究覆蓋機器學習、計算機視覺、語音識別及自然語言處理等四大核心方向,其中自然語言處理方向強調賦予計算機系統以自然語言文本理解與外界交互的能力,并不斷探索最前沿的文本理解和生成技術。實驗室立足未來,開放合作,致力于不斷提升AI的認知、決策與創造力,向“Make AI Everywhere”的愿景邁步。
本次兩個團隊強強聯合,深入探索知識與預訓練的融合技術,提出了全新的基于知識的預訓練方法,在這一領域又邁出了堅實的一步。