4月26日,網(wǎng)易有道在全球移動互聯(lián)網(wǎng)大會(GMIC)上發(fā)布了最新的實景AR翻譯技術,這是國內首個真正的實景AR翻譯解決方案,給當前打得火熱的翻譯界又添了一把火。
有道實景AR翻譯的整個過程完全是動態(tài)的,和出國旅行、購物等場景十分契合,并且接入了有道的離線神經網(wǎng)絡翻譯技術(YNMT),翻譯質量堪比專業(yè)八級,速度極快。這比起以往的拍照翻譯,體驗上有了跨越式升級。
完全離線,所見即所譯
翻譯工具最高頻的使用場景就是國外旅行、海淘購物,而輸入文字再翻譯的效率并不高。有道實景AR翻譯就能解決這一問題,只需要拿起手機掃一下,就能獲取商品信息、路標提示,整個翻譯過程,比掃二維碼還要快。最重要的是,整個過程全部離線完成,即使在沒有網(wǎng)絡的情況下,也不會有語言障礙。據(jù)了解,目前有道實景AR翻譯已經支持中英日韓四種語言。
有道實景AR翻譯能夠實現(xiàn)手機鏡頭在運動狀態(tài)下對被攝內容的跟隨翻譯,跟隨速度非常快,能精準地呈現(xiàn)出翻譯結果。針對一些常見的翻譯語料,比如論文、化妝品包裝、個人證件、產品說明書,有道實景AR翻譯都做了專門的技術優(yōu)化。而在翻譯結果的視覺呈現(xiàn)上,翻譯結果的邊緣、背景色與字色均可與原背景無縫貼合。
跨越技術門檻,集合頂尖AI科技
全離線的實景AR翻譯技術門檻很高。有道從2016年開始嘗試,經過幾次技術的實驗、推翻、再實驗,才有了目前的成果。在GMIC大會上,網(wǎng)易有道首席科學家段亦濤,剖析了其中融合的4項AI黑科技。
動態(tài)跟蹤 (Tracking)
不同于靜態(tài)的拍照翻譯,實景AR翻譯,是在動態(tài)移動的情況下完成。有道自主研發(fā)的動態(tài)跟蹤,就是用運動預測模型去實現(xiàn)動態(tài)跟蹤,速度能達到90幀/秒。“電影畫面的跟蹤速度是24幀/秒,所以有道的Tracking速度看起來是非常流暢的。”
OCR組段分析(Layout Analysis)
讓機器理解人類語言的段落層次,是影響翻譯結果很重要的因素。為此,有道用了OCR組段技術訓練了上百萬份不同類型的語料。段亦濤表示,“組段技術在實景AR翻譯中非常重要,這也是為什么用戶會感覺到有道的實景AR翻譯會比谷歌更通順。”
離線神經網(wǎng)絡翻譯(YNMT)
離線YNMT極大的提升了實景AR翻譯的速度。安裝不到100M大小的離線包,就可以在無網(wǎng)絡的環(huán)境下輕松翻譯。有道的YNMT是翻譯領域的最尖端的技術之一,中英翻譯質量媲美專業(yè)八級。
AR渲染技術
后臺翻譯完成后,有道自主研發(fā)的AR引擎會在20毫秒內完成像素級渲染。翻譯結果的背景邊緣、顏色以及字體顏色均保持與被攝原圖高度融合。
翻譯領域的技術革新者
AI爆發(fā)之后,有道幾乎每年都給翻譯界帶來顛覆性的技術革新。
2017年4月有道推出基于神經網(wǎng)絡翻譯的技術(YNMT),突破了過去統(tǒng)計翻譯模型(SMT)的局限,翻譯質量的提升是過去十年的總和。
很快,有道上線了離線的YNMT,配合離線OCR技術,突破了網(wǎng)絡環(huán)境對翻譯的局限,翻譯速度大幅提升,準確度堪比聯(lián)網(wǎng)效果。
為了給用戶更好的語音交互體驗,有道首次嘗試“YNMT+智能硬件”的翻譯方案,推出了有道翻譯蛋。而拍照翻譯和此次推出的實景AR翻譯,則是基于視覺交互的翻譯解決方案,讓翻譯體驗再升級。總嘗試“第一個吃螃蟹”的有道,已經有了深厚的技術積累,成為中國翻譯技術革新的推動者。