日前,蘋果在自家機器學習刊物《Apple Machine Learning Journal》上發表最新一篇文章,主要是關于用戶在iOS設備上激活“嘿Siri”功能時的人性化過程。這篇文章似乎也意味著,未來iOS系統將配備更高級的Siri智能私人助理,至少能夠利用機器學習特性來非常精確識別設備的主人。
“嘿Siri”功能在iOS 8的iPhone 6首次推出,如今在所有蘋果設備上,“嘿Siri”口令可激活設備上的智能私人助理。當然了,6s之前仍需要先將設備插入電源才能使用,而目前的新iPhone和iPad,“嘿Siri”都已支持全天候時刻待命,無需亮屏也無需接通電源充電狀態下就能使喚。因此,口令激活后用戶可跟進詢問或執行相關語音命令,例如詢問“今天天氣如何?”之類的問題。
在這篇機器學習期刊的新文章中,蘋果Siri團隊講述了引入“說話人識別系統(Speaker Recognition System)”的技術方法,聲稱為了給用戶創造更人性化的設備,自家團隊打造了“深度神經網絡”,而此舉將為Siri的迭代更新打下了基礎。簡單的說,蘋果基本上確認的事實是:未來的iOS系統版本中,機器學習技術將會被引入Siri智能私人助理,用于識別設備所有者的聲音。
蘋果Siri團隊表示,最初他們選中“嘿Siri”這個短語,就是因為這是非常“自然”的措辭。但也正是因為如此,“嘿Siri”常常被不經意間激活,因而帶來了不少麻煩。蘋果列舉了三種情況,包括:“當用戶說出類似的短語時”,“當其他用戶說‘嘿Siri’時”,以及“當其用戶說類似的短語時。”根據Siri團隊的說法,最后一種場景下的“錯誤激活最惱人”。
為了減少Siri被意外地、錯誤地激活,蘋果引入了說話者識別研究領域的技術。重點在于,Siri團隊稱他們關注的是“誰在說話”,而不是“說了什么”。蘋果表示,說話人識別技術的目標是確定語音發出者的身份。“我們感興趣的是‘誰在說話’,而不是語音識別的問題,最終目的是確定‘所說的是什么’。”
Siri團隊表示,說話者識別技術目前所面臨的其他挑戰是,如何在混響(如:大房間)和嘈雜環境中獲得更高質量的表現。未來通過機器學習,Siri語音助理將被訓練用于識別用戶在廣泛環境中分辨聲音,如在車里、廚房、咖啡店或類似的公共場所。Siri還會學習識別各種情境下用戶發出的聲音狀態,包括正常的聲音,很高、很亮的聲音,或者早上起床昏昏沉沉時的聲音等等,而不局限于最初重復錄入的幾聲“嘿Siri”。
最近,Siri隱私漏洞的問題備受關注。因為該漏洞下,任何人都可以通過Siri來讀取設備主人的通知,只要按住HOME鍵或iPhone X上的側邊按鍵幾秒,呼出Siri后,喊它“幫我讀一下通知”,它就會直接讀出鎖屏上的隱藏消息內容,無論是同事還是家人,甚至是路人都能執行相同的操作,而且是在設備鎖屏的情況下。
很顯然,蘋果將機器學習技術用于Siri幫助識別設備主人的方案,將能解決了Siri面臨的隱私問題。