IT之家 1 月 16 日消息,谷歌昨日(1 月 15 日)发布博文,基于 Gemma 3 架构,推出 TranslateGemma 开放翻译模型系列,共有 4B、12B 和 27B 三种参数规模,支持 55 种核心语言及多模态图像翻译,目前已在 Kaggle 和 Hugging Face 开放下载。性能方面,谷歌团队利用 WMT24++ 基准(包含高、中、低资源语言的 55 种语言)和 MetricX 指标进行了严格测试。
结果显示,TranslateGemma 12B 版本的翻译质量超越了参数量大其两倍的 Gemma 3 27B 基线模型。这意味着开发者仅需消耗一半的算力资源,即可获得更高保真的翻译结果,从而大幅提升吞吐量并降低延迟。
同时,体量最小的 4B 模型也展现出惊人实力,其性能与 12B 基线模型相当,为移动端和边缘计算设备提供了强大的翻译能力。技术方面,TranslateGemma 的高密度智能源于独特的“两阶段微调”工艺。首先是监督微调(SFT),Google 利用 Gemini 模型生成的高质量合成数据与人工翻译数据混合,对 Gemma 3 底座进行训练;随后引入强化学习(RL)阶段,通过 MetricX-QE 和 AutoMQM 等先进奖励模型,引导模型生成更符合语境、更自然的译文。在语言覆盖方面,TranslateGemma 重点优化并验证了 55 种核心语言(涵盖西班牙语、中文、印地语等),并进一步探索训练近 500 种语言,为学术界研究濒危语言提供了坚实基础。

此外,得益于 Gemma 3 的架构优势,新模型完整保留了多模态能力。测试表明,无需额外针对视觉任务进行微调,其在文本翻译上的提升直接增强了图像内文字的翻译效果。
为了适应不同的开发需求,TranslateGemma 的三种尺寸对应了精准的部署场景:所有模型目前均已在 Kaggle、Hugging Face 及 Vertex AI 上线。
IT之家附上参考地址
广告声明:文内含有的对外跳转链接(包括不限于超链接、二维码、口令等形式),用于传递更多信息,节省甄选时间,结果仅供参考,蓝鸢梦想所有文章均包含本声明。
