傳動網 > 新聞頻道 > 行業資訊 > 資訊詳情

谷歌開源AI能區分聲音 準確率達92%

時間:2018-11-29

來源:網絡轉載

導語:據VentureBeat報道,在語音嘈雜的環境中,要想分辨出有幾個人講話、在什么時間講話,對于機器來說非常困難。但谷歌人工智能(AI)研究部門在語音識別方面取得了新進展,能以92%的準確率識別出每個人聲音的專屬模式。

【中國傳動網 行業動態】 據VentureBeat報道,在語音嘈雜的環境中,要想分辨出有幾個人講話、在什么時間講話,對于機器來說非常困難。但谷歌人工智能(AI)研究部門在語音識別方面取得了新進展,能以92%的準確率識別出每個人聲音的專屬模式。

谷歌AI研究部門在最新名為《FullySupervisedSpeakerDiarization》的論文和相關博客文章中,研究人員描述了一種新的AI系統,它“能以一種更有效的方式識別聲音”。

這套系統涉及到Speakerdiarization任務,即需要標注出“誰”從“什么時候”到“什么時候”在說話,將語音樣本分割成獨特的、同構片段的過程。強大的AI系統必須能夠將新的演講者發音與它以前從未遇到過的語音片段關聯起來。

這篇論文的作者聲稱,核心算法已經可在Github上的開源軟件中可用,它實現了一個在線二值化錯誤率(DER),在NISTSRE2000CALLHOME基準上是7.6%,這對于實時應用來說已經足夠低了,而谷歌之前使用的方法DER為8.8%。

谷歌研究人員的新方法是通過遞歸神經網絡(RNN)模擬演講者的嵌入(如詞匯和短語的數學表示),遞歸神經網絡是一種機器學習模型,它可以利用內部狀態來處理輸入序列。每個演講者都從自己的RNN實例開始,該實例不斷更新給定新嵌入的RNN狀態,使系統能夠學習發言者共享的高級知識。

研究人員在論文中寫道:“由于該系統的所有組件都可以在監督環境下學習,所以在有高質量時間標記演講者標簽訓練數據的情況下,它比無監督系統更受青睞。我們的系統受到全面監督,能夠從帶有時間戳的演講者標簽例子中學習。”

在未來的工作中,研究團隊計劃改進模型,使其能夠集成上下文信息來執行脫機解碼,他們希望這將進一步減少DER。研究人員還希望能夠直接對聲學特征進行建模,這樣整個Speakerdiarization系統就可以進行端到端訓練。

中傳動網版權與免責聲明:

凡本網注明[來源:中國傳動網]的所有文字、圖片、音視和視頻文件,版權均為中國傳動網(www.hysjfh.com)獨家所有。如需轉載請與0755-82949061聯系。任何媒體、網站或個人轉載使用時須注明來源“中國傳動網”,違反者本網將追究其法律責任。

本網轉載并注明其他來源的稿件,均來自互聯網或業內投稿人士,版權屬于原版權人。轉載請保留稿件來源及作者,禁止擅自篡改,違者自負版權法律責任。

如涉及作品內容、版權等問題,請在作品發表之日起一周內與本網聯系,否則視為放棄相關權利。

關注伺服與運動控制公眾號獲取更多資訊

關注直驅與傳動公眾號獲取更多資訊

關注中國傳動網公眾號獲取更多資訊

最新新聞
查看更多資訊

熱搜詞
  • 運動控制
  • 伺服系統
  • 機器視覺
  • 機械傳動
  • 編碼器
  • 直驅系統
  • 工業電源
  • 電力電子
  • 工業互聯
  • 高壓變頻器
  • 中低壓變頻器
  • 傳感器
  • 人機界面
  • PLC
  • 電氣聯接
  • 工業機器人
  • 低壓電器
  • 機柜
回頂部
點贊 0
取消 0