微軟翻譯迎來Z-code專家混合模型更新 顯著增強翻譯服務質量

微軟剛剛宣布了自家翻譯服務的一項更新,為用戶引入了新的機器學習技術,有望顯著改善多語種之間的翻譯質量。具體說來是,基於“備用專家混合”(spare Mixture of Experts)方案的 Project Z-Code 項目,可讓新模型在盲測評估中的得分較以往提升 3~15% 。

0.jpg

(來自:Microsoft Research Blog)

據悉,Z-code 是微軟更廣泛的 XYZ-Code 計劃的一部分,着眼於結合多種語言的文本、視覺和音頻模型,以創建更強大、實用的 AI 系統。

雖然“專家組合”並不是一套新穎的技術,但它在翻譯環境中還是相當實用。該系統的核心,本質上是將任務分解為多個子任務,然後將之委託給更小、更專業的所謂“專家”模型。

1.gif

Z-code MoE 模型示例:從英語翻譯成法語時,可為每個輸入動態選擇其參數的子集。

各個模型會根據自身特性來預測、並決定將哪個任務委派給哪個專家,從而極大地簡化了開發思路。對於普通用戶來說,你可將之視作包含多個更專業模型的大模型集合。

微軟技術研究員兼 Azure AI 首席技術官黃學東表示:藉助 Z-code,我們確實取得了驚人的進步。

我們正在利用遷移學習和多任務學習,以從單語言和多語種數據中創建一個極具質量和性能的最佳組合。

最終帶來一個最先進的語言模型,並為客戶帶來高效的體驗。

2.jpg

結果是,我們看到了一套全新的系統,現能夠直接在 10 種語言之間進行翻譯,從而消除了對多個系統的需求。

此外微軟最近還開始使用 Z-code 模型來改進其 AI 系統的其它功能,包括實體識別、文本摘要、自定義文本分類、以及關鍵詞提取,但將其用到自家翻譯服務上還是首次。

傳統意義上的翻譯模型相當笨拙,因而很難將其帶入生產環境。不過微軟團隊選擇了一套“稀疏”方案 —— 僅激活每個任務的少量模型參數、而不是動輒調用整個系統。

這使得模型的運行更具成本效益,就像僅在冬日裡為最常用的時段和空間提供室內加熱一樣經濟高效,而無需讓暖爐一直保持全速運轉。

(0)
上一篇 2022-03-23 11:04
下一篇 2022-03-23 11:04

相关推荐