「中國人工智能研究論文總數(shù)已經(jīng)超過了美國,成為全球第一」
「人工智能初創(chuàng)企業(yè)獲得的資本青睞越來越少」
「主流NLP系統(tǒng)也存在種族歧視」
這些話題都出自斯坦福大學Human-Centered人工智能研究所近期發(fā)布的「2021年人工智能指數(shù)報告」。報告內(nèi)容覆蓋AI研發(fā)、技術(shù)性能、經(jīng)濟、教育、道德、多樣性以及各國相關(guān)政策和國家戰(zhàn)略等大量內(nèi)容。
這份報告長達222頁,包含大量數(shù)據(jù)和圖表,我們從中精選了15份圖表,帶你速覽這份斯坦福「2021年人工智能指數(shù)報告」,了解2021年人工智能發(fā)展現(xiàn)狀。
作者 | Eliza Strickland
編譯 | 機器之能
「2021年人工智能指數(shù)報告」由斯坦福大學Human-Centered人工智能研究所,以及來自哈佛大學,經(jīng)濟合作與發(fā)展組織,the Partnership on AI合作組織和SRI International的11名專家組成的指導委員會共同編制。這份報告引用了大量AI研究數(shù)據(jù),引用了包括:arXiv的AI研究數(shù)據(jù),Crunchbase的資金數(shù)據(jù),以及對Black in AI和Queer in AI等團體的調(diào)查。
報告對2021年度人工智能最新的研究趨勢和進展進行了總結(jié),并分析了資本、政策對AI技術(shù)的影響,以及深度學習、圖像識別、語言識別等AI主要子領(lǐng)域的研究。
一 人工智能的盛夏
人工智能研究工作正處在爆炸增長期:2019年全球發(fā)布了超過12萬篇人工智能研究領(lǐng)域的同行評審論文。自2000年以來,人工智能領(lǐng)域論文在同行評審論文中的占比,從0.8%一路攀升至2019年的3.8%。
二 中國在人工智能研究領(lǐng)域取得顯著成就
自2017年中國研究人員發(fā)表的同行評審論文首次超過歐洲以來,中國的人工智能研究論文數(shù)量持續(xù)上升。到2020年,中國研究人員發(fā)布的人工智能研究論文在權(quán)威期刊的引用率已經(jīng)領(lǐng)先全球。
AI指數(shù)指導委員會聯(lián)合主任Jack Clark表示,這些數(shù)據(jù)對中國來說似乎是「學術(shù)成功的指標」,也在一定程度上映射出不同國家在人工智能生態(tài)體系建設(shè)方面的現(xiàn)狀。他認為研究論文更像是一種學術(shù)權(quán)威認證,一個領(lǐng)域的學術(shù)性越弱,其行業(yè)實用性可能會越強。他指出:「中國有獲得期刊出版物的明確政策,政府機構(gòu)在研究中發(fā)揮更大的作用,而在美國,大部分這方面的研發(fā)主要集中在企業(yè)內(nèi)部。」
三 快速訓練=更好的AI
MLPerf以訓練速度與硬件的關(guān)系為基礎(chǔ),分析了機器學習的系統(tǒng)性能,客觀地對機器學習系統(tǒng)性能進行排名。通過對各種圖像分類器系統(tǒng)在標準ImageNet數(shù)據(jù)庫上進行培訓,并根據(jù)訓練時間進行排名。2018年,訓練最佳系統(tǒng)需要6.2分鐘;2020年,培訓最佳系統(tǒng)需要47秒。這一進步也得益于近年來機器學習專用芯片的快速發(fā)展。
報告認為,硬件加速對機器學習的影響至關(guān)重要。系統(tǒng)訓練耗時幾秒和幾小時的差別巨大,這種差異直接影響著研究人員的想法,以及研究的類型和數(shù)量,以及它可能影響到的研究風險。
四 AI不能理解「喝咖啡」?
在過去的幾年里,人工智能在靜態(tài)圖像識別方面的進展突飛猛進,而計算機視覺未來必將朝著視頻識別的方向發(fā)展。研究人員正在構(gòu)建可以從視頻剪輯中識別各種活動的系統(tǒng),因為如果將機器視覺應(yīng)用到現(xiàn)實世界(例如自動駕駛汽車、監(jiān)控攝像頭等),這種類型的識別可能會大有用處。計算機視覺性能的基準之一是ActivityNet數(shù)據(jù)集,其中包含來自2萬個視頻的近650小時鏡頭。在其中顯示的200項日常生活活動中,人工智能系統(tǒng)在2019年和2020年都很難識別「喝咖啡」這項活動。這似乎是一個主要問題,因為喝咖啡是所有其他活動的基本活動。無論如何,這是未來幾年值得關(guān)注的領(lǐng)域。
五 自然語言識別需要更難的測試
自然語言處理(NLP)的迅速崛起似乎遵循了計算機視覺的軌跡,在過去十年中,計算機視覺從學術(shù)領(lǐng)域的分支專業(yè)發(fā)展成為廣泛的商業(yè)部署。今天的NLP也由深度學習驅(qū)動,Jack Clark認為,NLP繼承了計算機視覺工作的策略,例如對大型數(shù)據(jù)庫的訓練和特定應(yīng)用程序的微調(diào)。他說:「我們看到這些創(chuàng)新非常迅速地流向人工智能的另一個領(lǐng)域。」
Jack Clark表示,衡量NLP系統(tǒng)的性能正在變得很棘手,學術(shù)界一直在研發(fā)更為困難的AI測試系統(tǒng)和指標,但無論何種系統(tǒng)總會在六個月內(nèi)出現(xiàn)新的AI擊敗它。這份圖表顯示了兩個版本的閱讀理解測試SQuAD的表現(xiàn),人工智能語言模型必須根據(jù)一段文本回答多項選擇題。2.0版通過包含無法回答的問題來使任務(wù)更加困難,模型必須識別這些問題,并且不回答。一個模型在第一個版本上花了25個月才超過人類的性能,但另一個模型只花了10個月就完成了更艱巨的任務(wù)。
六 NLP也存在「種族歧視」
語音識別和文本生成等任務(wù)的語言模型總的來說已經(jīng)非常完善了。但即便在主流的成熟商業(yè)NLP系統(tǒng)中仍存在認知偏差,如果這些問題不得到解決,則可能會嚴重影響這些技術(shù)的商業(yè)應(yīng)用。
例如AI系統(tǒng)也存在種族歧視問題,圖表顯示了幾款較為成熟的商業(yè)化語音識別程序的錯誤率。
雖然系統(tǒng)存在認知偏差,但大多數(shù)研究人員只注重系統(tǒng)性能,而很少有人會去注意到這種偏差。這個問題在未來很可能會阻礙各種形式的人工智能發(fā)展,包括計算機視覺和決策支持工具。
七 AI就業(yè)市場全球化
據(jù)LinkedIn數(shù)據(jù)顯示,從2016年到2020年,巴西、印度、加拿大、新加坡和南非的人工智能崗位增長最快。而這并不意味著這些國家的絕對就業(yè)機會最多(美國和中國仍占據(jù)AI就業(yè)機會的首位),但這些國家對人工智能的投入將會對人工智能技術(shù)以及整個社會的發(fā)展產(chǎn)生積極影響。LinkedIn發(fā)現(xiàn),2020年的全球疫情并未對AI領(lǐng)域的工作崗位招聘造成絲毫影響。
值得注意的是,印度和中國的人才對LinkedIn的應(yīng)用并不廣泛,因此這些國家的人才市場狀況在LinkedIn上的數(shù)據(jù)并不具有充分的代表性。
八 企業(yè)對AI的投資熱度「不想停,也不會停」
自2015年以來大量資金持續(xù)涌入人工智能領(lǐng)域。2020年,全球企業(yè)對人工智能的投資飆升至近680億美元,比前一年增長40%。
九 創(chuàng)業(yè)狂潮接近尾聲
從前面一張圖表可以看出,AI領(lǐng)域的企業(yè)投資持續(xù)增長,但在增長的背后,卻是增速逐年放緩。這張圖表顯示,AI初創(chuàng)企業(yè)得到的投資越來越少。雖然疫情可能對初創(chuàng)企業(yè)的活動產(chǎn)生了影響,但AI初創(chuàng)企業(yè)數(shù)量下降的明顯趨勢始于2018年,從好的方面來看,這似乎是行業(yè)正在逐步走向成熟的信號。
十 新冠病毒帶來的影響
雖然人工智能的許多趨勢在很大程度上沒有受到全球疫情的影響,但這張圖表顯示,2020年的AI投資更偏向于全球應(yīng)對新冠病毒中發(fā)揮重要作用的單位。制藥相關(guān)公司投資的激增就很好的說明了這一點。而對教育技術(shù)和游戲的投資增長,也與2020年疫情隔離導致人們把更多時間花費在電腦前有直接關(guān)系。
十一風險?有風險嗎?
大量企業(yè)在電信、金融服務(wù)和汽車等行業(yè)穩(wěn)步增加人工智能工具的應(yīng)用。然而,大多數(shù)公司似乎不知道或不關(guān)心這項新技術(shù)帶來的風險。麥肯錫在一項研究中調(diào)查了企業(yè)對AI應(yīng)用相關(guān)風險的認知,只有網(wǎng)絡(luò)安全風險受到了半數(shù)以上受訪者的關(guān)注。與人工智能相關(guān)的倫理問題,如隱私和公平,是當今人工智能研究領(lǐng)域最熱門的話題之一,然而這些問題并未引起企業(yè)的足夠重視。
十二 AI領(lǐng)域的博士們正在涌入企業(yè)
AI領(lǐng)域的學術(shù)工作有限,雖然高校增加了本科生和研究生級別的人工智能相關(guān)課程,終身制教師職位也相應(yīng)增加,但學術(shù)界仍然無法吸收逐年新增的AI博士。這份圖表僅代表北美地區(qū)的AI博士畢業(yè)生,這些畢業(yè)生中的絕大多數(shù)正在流向AI企業(yè)。
十三 AI的倫理問題
如前所述,很多公司對人工智能的倫理問題重視程度不足,但研究人員對此越來越關(guān)心。許多團體正在研究人工智能系統(tǒng)的不透明決策(稱為可解釋性問題),嵌入偏見和歧視,以及隱私入侵等問題。這份圖表顯示了人工智能會議上倫理問題的相關(guān)論文正在逐年增加,Jack Clark認為這非常值得高興。他指出,由于有這么多學生參加這些人工智能會議,幾年后,將有大量關(guān)注AI倫理的從業(yè)者進入行業(yè)。
然而,除了會議文件的增加外,在這一問題上業(yè)界并沒有其他突出的進步。報告強調(diào),人工智能系統(tǒng)中的偏差量化測試才剛剛開始出現(xiàn)。Jack Clark說,「這些評估體系,就像人工智能科學領(lǐng)域的一個新分支。」
十四 多樣性問題(1)
解決人工智能系統(tǒng)中嵌入的偏見和歧視的一種方法是確保構(gòu)建人工智能系統(tǒng)的群體的多樣性。這不是一個激進的概念。然而,報告稱,在學術(shù)界和行業(yè),人工智能勞動力「仍然以男性為主」。這張圖表來自美國計算機研究協(xié)會年度調(diào)查,數(shù)據(jù)顯示,在北美人工智能相關(guān)的博士課程的畢業(yè)生中,女性僅占約20%。
十五 多樣性問題(2)
來自同一調(diào)查的數(shù)據(jù)講述了一個關(guān)于種族/民族身份的類似故事。這個問題在即將畢業(yè)的博士生中似乎相當明顯,有許多優(yōu)秀的科學、技術(shù)、工程和數(shù)學項目都以女孩和少數(shù)族裔為重點。這使我們想到了AI4ALL組織,或許社會可以更加關(guān)注這些群體,給他們更多的資助,或者以某種方式參與其中。
參考鏈接:
https://aiindex.stanford.edu/wp-content/uploads/2021/03/2021-AI-Index-Report_Master.pdf
https://spectrum.ieee.org/tech-talk/artificial-intelligence/machine-learning/the-state-of-ai-in-15-graphs