IT之家 9 月 1 日消息,腾讯混元宣布将旗下国际翻译模型开源,供开发者免费下载部署。据了解,这一模型命名为 Hunyuan-MT-7B,总参数量仅 7B,支持 33 个语种、5 种民汉语言 / 方言互译,是一个能力全面的轻量级翻译模型。

腾讯混元称,在 8 月底结束的国际计算语言学协会(ACL)WMT2025 比赛中,腾讯混元 Hunyuan-MT-7B(参赛名称:Shy-hunyuan-MT)拿下了全部 31 个语种比赛中的 30 个第 1 名,处于绝对领先地位,这 31 个语种除了中文、英语、日语等常见语种,也包含捷克语、马拉地语、爱沙尼亚语、冰岛语等小语种。WMT25 竞赛对参赛模型的参数规模有明确限制,要求系统满足开源要求,并且只能使用公开数据进行训练,在这样的环境下,Hunyuan-MT-7B 击败了众多参数更大的模型。

腾讯混元还称,在业界常用的翻译能力测评数据集 Flores200 上,腾讯混元 Hunyuan-MT-7B 模型也有卓越的效果表现,明显领先于同尺寸模型,与超大尺寸模型效果对比也不逊色。针对翻译场景,腾讯混元提出了一个完整的翻译模型训练范式,覆盖从预训练、到 CPT 再到监督调参、翻译强化和集成强化全链条,使得模型的翻译效果达到业界最优。

IT之家注意到,同时开源的还有一个翻译集成模型 Hunyuan-MT-Chimera-7B (奇美拉),是业界首个翻译集成模型,它能够根据原文和多个翻译模型给出的不同内容,再生成一个更优的翻译结果,不仅原生支持 Hunyuan-MT-7B,也支持接入 deepseek 等模型,对于一些有专业翻译需求的用户和场景,可以提供更加准确的回复。

目前,腾讯混元翻译模型已经接入腾讯多个业务,包括腾讯会议、企业微信、QQ 浏览器、翻译君翻译、腾讯海外客服翻译等,助力产品体验提升。

Hunyuan-MT-7B 模型已在腾讯混元官网上线体验入口,并在 Huggingface 和 Github 等开源社区提供下载,对应的技术报告和论文也已经在开源社区公开。

体验地址:https://hunyuan.tencent.com/modelSquare/home/list

广告声明:文内含有的对外跳转链接(包括不限于超链接、二维码、口令等形式),用于传递更多信息,节省甄选时间,结果仅供参考,IT之家所有文章均包含本声明。

0个人收藏 收藏

评论交流