站長資訊網
        最全最豐富的資訊網站

        世界最大的多語言語音數據集現已開源:超 40 萬小時,共 23 種語言

          最近,Facebook 開源了目前世界上最大的多語言語音數據集,VoxPopuli:

        世界最大的多語言語音數據集現已開源:超 40 萬小時,共 23 種語言

          這一數據集共涵蓋了 23 種語言,時長超過 40 萬小時。

          其中,每種語言都有 9000 到 18000 小時的無標簽語音數據。

          此外,還包括了共 1800 小時,16 種語言的轉錄語音數據,以及 17300 小時,15 種目標語言的口譯語音數據。

          國外網友很快為這一行為點贊:

          顯然,如果數據集已經存在,那么它應該被利用,并以一種道德的方式來改善人類社會。

        世界最大的多語言語音數據集現已開源:超 40 萬小時,共 23 種語言

          這一數據集龐大的無標簽數據量和廣泛的語言覆蓋率,對改進自監督模型有著很大的幫助。

          而 Facebook 也希望能夠幫助提高語音數據集的質量和魯棒性,使訓練語音轉換神經網絡更加可靠。

          最終加速新的 NLP 系統的開發,使 AI 翻譯的效果越來越好。

          而數據集的名字,VoxPopuli 的直譯“人民的心聲”也表示了其原始數據的來源 ——

          即源語音全都收集自 2009-2020 年歐洲議會的活動錄音。

          來自 10 年歐會的語料庫

          在歐洲議會的各自活動,如全體會議、委員會會議和其他活動上,發言者都會以不同的歐盟語言輪流發表演講。

          Facebook 就是從歐會官網上抓取了每個演講的文字記錄、演講者信息、開始/結束時間戳。

        世界最大的多語言語音數據集現已開源:超 40 萬小時,共 23 種語言

          然后,將所有的原始演講數據進行處理,大致分為以下 3 類:

          共 40 萬小時,23 種語言的無標簽語音數據

          每種語言都有 8 千到 2 萬多的原始語音數據。

          因此,Facebook 基于能量的語音激活檢測(VAD)算法,將完整音頻分割成 15-30 秒的短片段。

          最終得到沒有太多的數據不平衡,也不需要調整數據采樣策略的數據集。

          因此非常適合多語言模型的訓練。

        世界最大的多語言語音數據集現已開源:超 40 萬小時,共 23 種語言

          而上表中除了無標簽數據,也有轉錄的語音數據,這也就是第二種:

          共 1800 小時,16 種語言的轉錄語音數據。

          歐會官方的時間戳雖然可以用來在會議中定義演講者,但常常會被截斷,或混合前后演講的片段,因此并不完全準確。

          所以 Facebook 對全會話音頻采用了聲紋分割聚類(SD)。

          這時的語音段落平均時長為 197 秒,再利用語音識別(ASR)系統,將其細分為 20 秒左右的短片段。

          觀察上表,可以看到最終得到的數據中,有包括各語言的持續時間、發言人數量、女性發言人百分比、標記數量等多種屬性。

          17300 小時的 15 種目標語言的口譯語音數據:

        世界最大的多語言語音數據集現已開源:超 40 萬小時,共 23 種語言

          每個原始語音都有相對應的同聲傳譯,并互相關聯。

          但要使這個數據集可用,必須經過大量的預處理和過濾。

          因此,Facebook 使用了語音識別(ASR)系統在句子層面上對齊源語音和目標語音。

          在域外環境的半監督學習下具有通用性

          那么這一數據集用起來到底怎么樣?

          首先,是使用包含了域外語言(out-of-domain out-of-language)的無監督預訓練,進行少樣本的語音識別:

        世界最大的多語言語音數據集現已開源:超 40 萬小時,共 23 種語言

          可以從表中看到,VP-Mono5K 在 5 種 VoxPopuli 語言上,都優于 XLSR-Mono 和 XLSR-10。

          而 VP-100K 則在 10 種語言中的 8 種上的都比 XLSR-10 的表現更好。

          并且,雖然 XLSR-53 涵蓋了 Zh 語言,但與 VP-100K(Large)在 Zh 上的表現相距甚遠。

          這表明 VP-100K 所學的語音表征具有高度的通用性。

          然后是使用 VoxPopuli 數據集進行自我訓練或弱監督的語言翻譯(ST)和語音識別(ASR):

        世界最大的多語言語音數據集現已開源:超 40 萬小時,共 23 種語言

          從表中可以看到,不管是對于域內語言還是域外語言,對 VoxPopuli 的自我訓練在大多數時候都能夠提高性能。

          而在翻譯上,也不用再增加昂貴的標簽數據。

          通過自我訓練,就能夠縮小端到端模型和級聯模型之間的差距。

          論文地址:

          https://arxiv.org/abs/2101.00390

          下載:

          https://github.com/facebookresearch/voxpopuli

          參考鏈接:

          [1]https://www.reddit.com/r/MachineLearning/comments/owll7g/n_facebook_ai_releases_voxpopuli_a_largescale/

          [2]https://www.marktechpost.com/2021/08/02/facebook-ai-releases-voxpopuli-a-large-scale-open-multilingual-speech-corpus-for-ai-translations-in-nlp-systems/

        特別提醒:本網信息來自于互聯網,目的在于傳遞更多信息,并不代表本網贊同其觀點。其原創性以及文中陳述文字和內容未經本站證實,對本文以及其中全部或者部分內容、文字的真實性、完整性、及時性本站不作任何保證或承諾,并請自行核實相關內容。本站不承擔此類作品侵權行為的直接責任及連帶責任。如若本網有任何內容侵犯您的權益,請及時聯系我們,本站將會在24小時內處理完畢。

        贊(0)
        分享到: 更多 (0)
        網站地圖   滬ICP備18035694號-2    滬公網安備31011702889846號
        主站蜘蛛池模板: 国产精品无码一区二区三区电影| 国产精品成人va在线观看| 精品少妇人妻av无码久久| 国产三级精品三级在专区| 国内精品伊人久久久久AV影院 | 在线亚洲欧美中文精品| 亚洲精品欧美日韩| 第一福利永久视频精品| 人妻精品久久久久中文字幕一冢本| 久久噜噜久久久精品66| 99久久精品免费看国产一区二区三区| HEYZO无码综合国产精品227| 无码aⅴ精品一区二区三区浪潮| 亚洲精品成人久久久| 久久久久久久久久免免费精品| 国产精品龙口护士门在线观看| 久久青草国产精品一区| 91久久婷婷国产综合精品青草| 国内精品久久久久久久97牛牛| 无码精品A∨在线观看| 亚洲精品老司机在线观看| 日韩亚洲精品福利| 久久夜色精品国产www| 久久99精品九九九久久婷婷| 国产精品高清2021在线| 国产精品欧美一区二区三区 | 日韩精品久久无码人妻中文字幕| 日韩精品成人亚洲专区| 国产一区二区精品久久凹凸| 粉嫩精品美女国产在线观看| 欧美日韩精品一区二区在线播放| 97r久久精品国产99国产精| 欧洲成人午夜精品无码区久久| 日韩精品系列产品| 久久香蕉国产线看观看精品yw| 亚洲国产精品无码av| 日韩精品专区AV无码| 久久久一本精品99久久精品66| 亚洲AV永久无码精品一百度影院| 亚洲AV成人精品网站在线播放| 亚洲精品卡2卡3卡4卡5卡区|