腾讯宣布推出混元开源翻译模型1.5 曾拿下多项世界翻译比赛冠军

产品发布与核心规格 - 公司于12月30日宣布推出并开源混元翻译模型1.5,包含Tencent-HY-MT1.5-1.8B和Tencent-HY-MT1.5-7B两个模型 [1] - 模型支持33个语种互译及5种民汉/方言,涵盖中文、英语、日语及捷克语、马拉地语等小语种 [1] - HY-MT1.5-1.8B面向消费级设备,经量化后支持端侧离线部署,仅需1GB内存即可运行 [1] - HY-MT1.5-7B是此前WMT25比赛30个语种翻译冠军模型的升级版,重点提升了翻译准确率并减少了译文中的注释和语种混杂情况 [1] 性能表现与竞争优势 - 在参数量极小的前提下,HY-MT1.5-1.8B的效果超过了大部分商用翻译API [1] - HY-MT1.5-1.8B推理速度更快,处理50个tokens的平均耗时仅0.18秒,而其他主流商用模型在0.4秒左右 [1] - 在Flores200、WMT25等测试集中,HY-MT1.5-1.8B全面超越中等尺寸开源模型和主流商用翻译API,达到Gemini-3.0-Pro超大尺寸闭源模型的90分位水平 [2] - 在WMT25和民汉翻译测试集上,其效果仅略微差于Gemini-3.0-Pro,远超其他模型 [2] - HY-MT1.5-1.8B在FLORES-200质量评估中取得约78%的分数,同时平均响应时间仅为0.18秒,显示出明显的速度优势 [2] 应用场景与部署策略 - 两个尺寸模型可协同部署,实现端侧和云侧协同,提升模型效果的一致性和稳定性 [2] - 模型领先的效率使其高度适用于即时通讯、智能客服、移动翻译应用等高吞吐、实时翻译场景 [2] - 模型已在腾讯会议、企业微信、QQ浏览器、客服翻译等内部多个业务场景落地应用 [4] - 开源模型已在Github和Huggingface等社区上线,Arm、高通、Intel、沐曦等多个平台均支持部署 [4] 核心功能与实用性 - 模型具备强大的术语库自定义能力,用户可针对医学、法律、金融、科技等行业构建专属术语对照表,确保关键术语翻译的一致性与准确性 [3] - 模型具备先进的长文本与对话上下文理解能力,可显著提升长对话、多轮问答等场景下的翻译连贯性与一致性 [3] - 模型具备带格式翻译能力,可保持翻译前后的格式信息不变 [3] - 实用性是模型的长期追求目标,两个模型均实现了对术语库、长对话、带格式文本(如网页)的翻译支持 [2] 技术亮点与行业认可 - HY-MT1.5-1.8B采用On-Policy Distillation策略,以7B模型作为Teacher实时引导1.8B的Student模型,通过纠正预测序列分布的偏移来提升小模型能力 [4] - 腾讯混元翻译模型此前在国际机器翻译比赛拿下30个第1名 [4] - 模型在首次开源一周内便登上了Hugging Face模型趋势榜第一位 [4]