據國外媒體報道,蘋果在其機器學習刊物《apple machine learning journal》上發(fā)表新一篇文章,主要是描述了用戶在ios設備上激活“嘿siri”功能時的人性化過程,引入說話者識別研究技術,利用深度神經網絡技術,重點辨識音色與音調,以幫助用戶終成為該設備的主人。
蘋果欲開發(fā)“說話者識別”技術,解決隱私漏洞
“嘿siri”功能在iphone6搭載的ios8中推出,現(xiàn)如今,“嘿siri”口令已經可激活設備上所有的智能私人助理。但是,即便經過幾年的發(fā)展,“嘿siri”也依舊存在很多問題,例如會在不經意間被激活、其他人激活等。為了解決這些問題,蘋果siri團隊表示,新引入的“說話人識別系統(tǒng)”,主要是為用戶創(chuàng)造更加人性化的設備。但目前該技術還存在一些問題,例如不能在混響(如大房間)和嘈雜環(huán)境中獲得更的聲音。未來,蘋果siri團隊將繼續(xù)通過機器學習技術,在各種環(huán)境下對siri進行訓練,如車里、廚房、咖啡店等公共場所。此外,siri還會學習識別各種情景下用戶發(fā)出的聲音狀態(tài),不局限于初錄入的聲音,包括正常的聲音,很高、很亮的聲音,或者早上起床昏昏沉沉時的聲音等。近,siri隱私漏洞的問題備受關注。因為在該漏洞下,任何人都可以通過siri來讀取設備主人的通知,只要按住home鍵或iphone x的側邊按鍵幾秒,喚醒siri后,喊下“幫我讀下通知”,它就會直接讀出鎖屏上的隱藏消息內容。無論是同事、家人,甚至是路人都能執(zhí)行相同的操作,而且是在設備鎖屏情況下。如果蘋果的“說話者識別技術”研發(fā)順利,或將能幫助其解決siri面臨的隱私問題。(原標題:蘋果欲開發(fā)“說話者識別”技術,解決隱私漏洞)