頂會,尤其是國際頂會,因其在業界的巨大影響力,是企業和個人的實力試金場。
被頂會錄用的論文,代表的是對該領域具有重大意義的研究成果。
國際計算語言學年會(Annual Meeting of the Association for Computational Linguistics,簡稱ACL)是自然語言處理(NLP)領域的頂級國際會議,ACL 2023 將于2023年7月9-14日在加拿大多倫多舉行。
近日,ACL 2023公布了論文入選結果,網易云商AI技術組與上海交通大學林洲漢老師研究組關于Transformer方向的論文被大會Findings錄用,技術實力耀眼國際舞臺。
ACL:NLP領域最負盛名的國際頂會之一
ACL到底有多牛?我們或許可以從三個維度來感受一下
從1963年召開第1屆會議,到2023年已經是第61屆,走過半個多世紀,ACL已經成長為了計算語言學和自然語言處理領域最高級別、最負盛名的學術會議,每年都會吸引來自世界各地的頂尖學者、研究者、工程師和企業家參加。
NLP被譽為“人工智能皇冠上的明珠”,一方面表明了它的重要性,另一方面也顯現出了它的技術難度。ACL每年都會開放關于計算語言學和NLP領域的投稿,投稿量逐年攀升,但平均錄用率只在25%上下,2012年僅為19%。能被ACL錄用的論文都是精品中的精品,兼具創新性、科學性、實用性、可讀性。
此外,ACL是中國計算機學會(CCF)推薦的A類國際學術會議。
論文主題:提出一種新的Fourier Transformer結構
那么,網易云商的這篇論文研究了什么主題?它憑什么在眾多論文中突出重圍?
Transformer作為AI的基礎模型在NLP、CV、Speech等場景下有廣泛應用,是業界共識。但是,Transformer存在self-attention計算復雜度高和信息冗余嚴重的問題。針對此問題,網易云商AI技術組與上海交通大學林洲漢老師研究組共同開展研究。
“通過對模型的每層輸入進行分析,我們發現低頻區間存在尖峰效應。基于這個發現,我們提出一種新的Fourier Transformer結構,通過FFT(快速傅立葉變換)的DCT(離散余弦變換)操作刪除高頻信息,再通過IDCT轉化成時域實現序列壓縮。我們在encoder-only和encoder-decoder兩種模型架構上使用Fourier Transformer,其中在encoder-decoder架構中,通過upsample恢復列長度。”論文作者之一,網易云商資深自然語言處理工程師楊萌介紹了整個論文的背景和發現。
實驗結果證明,Fourier Transformer在時間復雜度和空間復雜度上都有顯著的降低,且在多個NLP任務上達到了SOTA水平(state-of-the-art,目前最佳效果)。
“我們提出的Fourier Transformer結構可以被廣泛應用于目前主流的各類深度學習模型中(Bert、Bart、RoBERTa等),以實現訓練和推理速度的顯著提升,并在長序列任務中減少噪聲從而更好地捕捉輸入序列中的長距離依賴關系來提高模型的泛化性能和精度。”楊萌進一步補充了論文研究的創新之處和應用價值。
是學院派更是實踐派
在學術方面,網易云商展現了AI頭雁的實力,在具體的應用上,網易云商也早已注入各個場景,進行落地開花,讓企業和消費者獲益于NLP。
網易云商旗下七魚智能客服產品是NLP技術在服務場景的落地成果,自2016年4月發布以來,已經累計服務40萬家企業,連接8億用戶,機器人累計咨詢接待量46.8億,平均意圖識別準確率達到96%,平均問題匹配率達到95%,平均問題解決率達到90%,遠超行業水平。
網易云商旗下智能外呼產品是NLP技術在營銷場景的落地成果,成果破解傳統呼叫產品聲音機械、反應遲鈍、答非所問、頻繁騷擾等問題,打造有溫度、更智能、更懂人心的人機對話體驗,極大提高了營銷效率和效果,助力企業高效深挖存量用戶價值。
兼顧學術研究和場景需求,是學院派更是實踐派,探索AI技術,網易云商持續在路上。