6 月 28 日消息 今日,字節跳動火山翻譯團隊宣布推出 LightSeq 訓練加速引擎,并向全球開發者開源。
Transformer 是自然語言處理、計算機視覺等 AI 技術領域最常用的基礎模型,被廣泛應用在機器翻譯、文本生成、文本摘要、圖像處理、時間序列預測等任務中。訓練和推理則是 AI 技術的兩個主要過程,相當于學習知識和解決問題。
據悉,LightSeq 訓練加速引擎能夠支持 Transformer 的完整加速,從詞嵌入層、編碼層、解碼層,到最后的損失函數層,業內首次實現了全流程支持。而且 LightSeq 的訓練速度極快,相比主流的序列生成庫,LightSeq 最快只需要三分之一的時間就能完成訓練。
根據公開報道,字節跳動現在已經開源了機器學習平臺 Klever、聯邦學習平臺 Fedlearner、高性能分布式訓練框架 BytePS 等重磅項目。
特別提醒:本網信息來自于互聯網,目的在于傳遞更多信息,并不代表本網贊同其觀點。其原創性以及文中陳述文字和內容未經本站證實,對本文以及其中全部或者部分內容、文字的真實性、完整性、及時性本站不作任何保證或承諾,并請自行核實相關內容。本站不承擔此類作品侵權行為的直接責任及連帶責任。如若本網有任何內容侵犯您的權益,請及時聯系我們,本站將會在24小時內處理完畢。