我們擅長商業(yè)策略與用戶體驗的完美結(jié)合。
歡迎瀏覽我們的案例。
阿里又出黑科技。新的唇語閱讀 AI 系統(tǒng)在識別準確率表現(xiàn)上不僅超越基線標準,也優(yōu)于專家級人類水平,有望為全球近 5 億聽障人士帶來福音。
阿里巴巴又出黑科技,AI 看唇語知內(nèi)容!
實際上,能夠從視頻中讀取嘴唇的 AI 和機器學(xué)習(xí)算法并沒有什么不同。早在 2016 年,來自 Google 和牛津大學(xué)的研究人員就詳細介紹了一種系統(tǒng),該系統(tǒng)可以 46.8% 的準確度注釋視頻錄像,這個表現(xiàn)明顯優(yōu)于專業(yè)唇語識別人士 12.4% 準確度。但是,即使是最先進的系統(tǒng),也難以克服唇語識別時的歧義問題,這使唇語 AI 的性能一直難以超越音頻語音識別。
為了追求更好的性能,浙江阿里巴巴公司和史蒂文斯理工學(xué)院的研究人員聯(lián)合設(shè)計了一種方法,稱為 LIBS,該方法利用從語音識別器中提取的特征作為唇語識別時的補充信息。研究人員表示,LIBS 系統(tǒng)在兩個基準測試中都達到了業(yè)界領(lǐng)先的準確度,在識別字符錯誤率方面,LIBS 分別較基線性能高出 7.66% 和 2.75%。
LIBS 和其他類似的解決方案一樣,都可以幫助聽障人士觀看缺少字幕的視頻。據(jù)估計,全世界有 4.66 億人患有失能性聽力障礙,約占世界人口的5%。根據(jù)世界衛(wèi)生組織的數(shù)據(jù),到 2050 年,這一數(shù)字可能會超過 9 億。
LIBS 會從說話人的視頻中以多種不同尺度提取有用的音頻信息,包括序列級、上下文級和幀級。然后,系統(tǒng)會識別這些信息之間的對應(yīng)關(guān)系,將數(shù)據(jù)與視頻數(shù)據(jù)進行對齊(由于開頭或結(jié)尾有時會出現(xiàn)采樣率不一致、視頻和音頻序列的長度不一致等情況),并利用過濾技術(shù)來優(yōu)化蒸餾功能。
LIBS 系統(tǒng)架構(gòu)示意圖
LIBS 的語音識別器和口語閱讀器組件均基于注意力的 seq2seq 體系結(jié)構(gòu),這是一種機器翻譯方法,可將序列的輸入(即音頻或視頻)映射到帶有標簽的輸出和注意力值上。研究人員對上述內(nèi)容在 LRS2 和 CMLR 數(shù)據(jù)集上進行了訓(xùn)練,LRS2 包含來自 BBC 的 45000 多個口語句子,CMLR 則是最大的中文普通話口語語料庫,包括了來自中國網(wǎng)絡(luò)電視臺網(wǎng)站的 10 萬余個自然句(包括 3000 多個漢字和 20000 多個短語)。
不過,研究團隊也表示,由于某些句子長度太短,該模型難以在 LRS2 數(shù)據(jù)集上實現(xiàn)“合理的”結(jié)果。(解碼器從少于 14 個字符的句子中提取相關(guān)信息時會遇到困難。)但是,一旦對最大長度為 16 個單詞的句子進行了預(yù)訓(xùn)練,解碼器將可以通過對上下文級別的知識進行設(shè)置,提高 LRS2 數(shù)據(jù)中句子結(jié)尾部分的質(zhì)量。
研究人員在描述其工作的論文中寫道:“ LIBS 減少了對無關(guān)框架的關(guān)注。” “幀級知識提煉進一步提高了視頻幀特征的可分辨性,使注意力更加集中。”
?。?a href="http://www.nasamidwest.com">邯鄲網(wǎng)站建設(shè))
小米應(yīng)用商店發(fā)布消息稱 持續(xù)開展“APP 侵害用戶權(quán)益治理”系列行動 11:37:04
騰訊云與CSIG成立政企業(yè)務(wù)線 加速數(shù)字技術(shù)在實體經(jīng)濟中的落地和應(yīng)用 11:34:49
樂視回應(yīng)還有400多人 期待新的朋友加入 11:29:25
亞馬遜表示 公司正在將其智能購物車擴展到馬薩諸塞州的一家全食店 10:18:04
三星在元宇宙平臺推出游戲 玩家可收集原材料制作三星產(chǎn)品 09:57:29
特斯拉加州San Mateo裁減229名員工 永久關(guān)閉該地區(qū)分公司 09:53:13