国产微拍一区二区三区四区,亚洲欧美一区二区三区四区,黄色网址国产,动漫精品视频一区二区三区,免费人与牲口做爰视频,亚洲精品久久久久久一区,欧美槡BBBB槡BBB少妇,国产精品99,亚洲 日韩 国产 制服 在线

Internet Develppment
互聯(lián)網(wǎng)開發(fā)& 推廣服務(wù)提供商

我們擅長商業(yè)策略與用戶體驗(yàn)的完美結(jié)合。

歡迎瀏覽我們的案例。

首頁 > 新聞中心 > 新聞動(dòng)態(tài) > 正文

谷歌開源AI可在嘈雜環(huán)境中區(qū)分聲音,準(zhǔn)確率達(dá)92%

發(fā)布時(shí)間:2018-11-14 15:14:36來源:網(wǎng)易科技

  據(jù) VentureBeat 報(bào)道,Google 人工智能研究部門在語音識(shí)別方面取得了新的進(jìn)展,能從嘈雜的環(huán)境中分辨聲音,準(zhǔn)確率高達(dá) 92%。Google 人工智能研究部門在一篇名為《Fully Super vised Speaker Diarization》的論文中描述了這一新的 AI 系統(tǒng),稱它“能以一種更有效的方式識(shí)別聲音”。

  這套強(qiáng)大的 AI 系統(tǒng)涉及到 Speaker diarization 任務(wù),需要標(biāo)注出“誰”從“什么時(shí)候”到“什么時(shí)候”在說話,將語音樣本分割成獨(dú)特的、同構(gòu)片段的過程。還能將新的演講者發(fā)音與它以前從未遇到過的語音片段關(guān)聯(lián)起來。

  其核心算法已經(jīng)開源可用。它實(shí)現(xiàn)了一個(gè)在線二值化錯(cuò)誤率(DER),在 NIST SRE 2000 CALLHOME 基準(zhǔn)上是 7.6%,這對于實(shí)時(shí)應(yīng)用來說已經(jīng)足夠低了,而谷歌之前使用的方法 DER 為 8.8%。

  谷歌研究人員的新方法是通過遞歸神經(jīng)網(wǎng)絡(luò)(RNN)模擬演講者的嵌入(如詞匯和短語的數(shù)學(xué)表示),遞歸神經(jīng)網(wǎng)絡(luò)是一種機(jī)器學(xué)習(xí)模型,它可以利用內(nèi)部狀態(tài)來處理輸入序列。每個(gè)演講者都從自己的 RNN 實(shí)例開始,該實(shí)例不斷更新給定新嵌入的 RNN 狀態(tài),使系統(tǒng)能夠?qū)W習(xí)發(fā)言者共享的高級(jí)知識(shí)。

  研究人員在論文中寫道:“由于該系統(tǒng)的所有組件都可以在監(jiān)督環(huán)境下學(xué)習(xí),所以在有高質(zhì)量時(shí)間標(biāo)記演講者標(biāo)簽訓(xùn)練數(shù)據(jù)的情況下,它比無監(jiān)督系統(tǒng)更受青睞。我們的系統(tǒng)受到全面監(jiān)督,能夠從帶有時(shí)間戳的演講者標(biāo)簽例子中學(xué)習(xí)。”

  在未來的工作中,研究團(tuán)隊(duì)計(jì)劃改進(jìn)模型,使其能夠集成上下文信息來執(zhí)行脫機(jī)解碼,他們希望這將進(jìn)一步減少 DER。研究人員還希望能夠直接對聲學(xué)特征進(jìn)行建模,這樣整個(gè) Speaker diarization 系統(tǒng)就可以進(jìn)行端到端訓(xùn)練。
 ?。?a href="http://www.nasamidwest.com">邯鄲網(wǎng)絡(luò)公司)

最新資訊
? 2018 河北碼上網(wǎng)絡(luò)科技有限公司 版權(quán)所有 冀ICP備18021892號(hào)-1   
? 2018 河北碼上科技有限公司 版權(quán)所有.