騰訊開源翻譯模型狂飆:31個語言對奪30冠,力壓谷歌GPT全家桶
騰訊宣布開源兩款翻譯模型。
這兩款模型名為“Hunyuan MT 7B”和“Hunyuan MT Chimera 7B”,在國際權威賽事WMT2025上幾乎橫掃所有項目,31個語言對里拿下30個第一。
WMT是機器翻譯領域的最高級別賽事,全球研究團隊齊聚一堂比拼系統表現。
騰訊模型的得分大幅超過谷歌翻譯。也在多項指標上,結果領先幅度高達65%。
圖片
不僅如此,面對OpenAI的GPT-4.1、Anthropic的Claude 4 Sonnet,以及谷歌的Gemini 2.5 Pro等頂尖AI系統,騰訊依然占優。
評測數據顯示,Hunyuan模型在關鍵語言對的直接對抗中,比Gemini 2.5 Pro高出4.7個百分點。
圖片
面對專門的翻譯模型,優勢更為明顯,提升幅度最高達110%。
這意味著,參數規模只有70億的模型,居然在翻譯任務上擊敗了動輒數百億參數的龐然大物。
模型覆蓋33種語言,包括中文、英語、日語,以及捷克語、馬拉地語、愛沙尼亞語和冰島語等小語種。
最引人注目的是,騰訊把重點放在了中國的少數民族語言。模型支持漢語與哈薩克語、維吾爾語、蒙古語和藏語的雙向翻譯。
為此,團隊專門準備了1.3萬億個標注單位,僅針對少數民族語料。整個訓練過程共涉及112種語言和方言。
另外,這兩款模型未不是單純依賴大數據暴力堆砌。訓練過程分為五個階段,從通用文本起步,逐漸引入翻譯專屬數據,再用人工標注進行監督學習。
接著是基于獎勵信號的強化學習,最后一步是所謂“弱到強”的強化學習策略。
這種層層遞進的方式,保證了模型既有廣泛知識,又能在翻譯任務上保持專業性。
特別值得一提的是“Chimera”模型。
它采用融合策略,將多個系統的翻譯建議合并為更優結果,在標準測試中平均提升2.3個百分點。
這種方法等于把不同模型的優勢疊加,避免了單一系統的偏差。
與之相比,谷歌最近宣布的Gemini翻譯功能,雖然引入了實時對話翻譯和語言學習模式,但在核心準確率上,依然落后于騰訊。
騰訊的另一個亮點是開源。
模型已經在Hugging Face平臺上線,源代碼同步開放在GitHub。在硬件需求上,Hunyuan只需普通顯卡即可運行。
與72億參數的Tower Plus系列相比,Hunyuan在多項指標上超出10%到58%。
顯然,翻譯領域的競爭,不再是“模型越大越好”。未來的方向,是精準訓練和高效架構。
體驗地址:https://hunyuan.tencent.com/modelSquare/home/list
Github: https://github.com/Tencent-Hunyuan/Hunyuan-MT/
HugginFace:https://huggingface.co/collections/tencent/hunyuan-mt-68b42f76d473f82798882597
AngelSlim壓縮工具:https://github.com/Tencent/AngelSlim


































