腾讯混元轻量级翻译大模型 HY-MT 在技术研发、赛事表现、开源落地等方面取得显著成果,其核心团队由腾讯混元技术专家郑茂带领,该团队斩获 WMT2025 翻译比赛多赛道第一,为 HY-MT 的技术突破奠定了基础。HY-MT 近期在通用翻译赛道表现亮眼,31 个语种中 30 个拿下第一,覆盖常见语种与捷克语等小语种,且已开源 HY-MT1.5-7b 等三款模型,支持 33 个语种互译,含 5 种民汉语言 / 方言互译、俚语翻译等特色能力,开源后登上 Huggingface 首页趋势榜第一,28 天下载量超 30W 次,同时已落地腾讯会议、游戏出海、企业微信等多场景。
在翻译效果上,HY-MT 展现出参数高效性,1.8B 与 7B 版本在 FLORES-200、WMT25 数据集上,翻译质量远超同尺寸开源模型,甚至对标超大尺寸闭源模型。其中 1.8B 模型经量化后仅需 1GB 内存即可端侧离线运行,效果超主流商用翻译 API,达到 Gemini3.0-Pro 的 90 分位水平。在实际翻译场景中,HY-MT 对长难句、俚语、古诗、网络用语等的翻译更贴合语境,相比普通页面翻译更精准、更符合表达习惯。
HY-MT 的训练体系分为预训练、有监督微调、强化学习等多个阶段,核心优化策略丰富。多语言增训覆盖 33 种语言,通过中英数据重放避免核心能力下降,结合实验确定最优语种配比并调整学习率;高质量平行语料获取上,高资源语种融合多模型结果并多维度筛选,低资源语种以英语为桥接构建语料;多语言奖励模型融合通用与领域、有参考与无参考等多维度评估;针对低资源语种提出 SSR 强化学习方案,依托单语回译生成奖励信号;针对术语翻译设计 TAT-R1 方法,在强化学习中引入术语对齐等维度,实现术语翻译效果大幅提升且不影响通用翻译能力。
在应用场景能力建设上,HY-MT 针对带格式翻译、实时翻译、术语 / 例句库翻译、词典翻译等典型场景打造专属解决方案,分别从格式信息保留、模型小型化与口语化优化、术语库建设、词典知识注入等方面提升适配性,满足企业微、腾讯会议、QQ 浏览器等多产品的翻译需求。
研发团队总结得出,高质量数据构造是模型研发核心,奖励模型的清晰定义存在较大挑战,强化学习的稳定长期训练与算法优化是拉开效果差距的关键。未来 HY-MT 将聚焦模型架构升级、多模态翻译、翻译 AGENT 研发三大方向,探索 MOE 与 DENSE 架构优化,实现语音、图片 / 视频端到端翻译,借助记忆机制解决长文翻译一致性问题。此外,文档还介绍了 HY-MT 的本地部署方案,对比 HuggingFace Transformers、VLLM、LM Studio 三种技术路线的优劣,为不同场景的部署选型提供参考,本地部署还能实现数据隐私保护、成本控制、定制化开发与离线使用等价值。
免责声明:我们尊重知识产权、数据隐私,只做内容的收集、整理及分享,报告内容来源于网络,报告版权归原撰写发布机构所有,通过公开合法渠道获得,如涉及侵权,请及时联系我们删除,如对报告内容存疑,请与撰写、发布机构联系