蚂蚁集团已部署万卡规模国产算力群,训练与推理性能可媲美国际算力集群

IT之家 11 月 9 日消息,据《科创板日报》报道,11 月 8 日,在 2025 年世界互联网大会・乌镇峰会前沿人工智能模型论坛上,蚂蚁集团平台技术事业群总裁骆骥表示,在算力方面,蚂蚁已部署万卡规模的国产算力集群,适配自研与各主流开源模型,训练任务稳定性超过 98%,训练与推理性能可媲美国际算力集群,并全面应用于安全风控领域的大模型训练与推理服务。IT之家注意到,今年 3 月,蚂蚁集团 Ling 团队在预印版 Arxiv 平台发表技术成果论文《每一个 FLOP 都至关重要:无需高级 GPU 即可扩展 3000 亿参数混合专家 LING 大模型》,宣布推出两款不同规模的 MoE (混合专家)大语言模型 —— 百灵轻量版(Ling-Lite)与百灵增强版(Ling-Plus),并提出一系列创新方法,实现在低性能硬件上高效训练大模型,显著降低成本。实验表明,其 3000 亿参数的 MoE 大模型可在使用国产 GPU 的低性能设备上完成高效训练,性能与完全使用英伟达芯片、同规模的稠密模型及 MoE 模型相当。当前,MoE 模型训练通常依赖英伟达 H100 / H800 等高性能 GPU,成本高昂且芯片短缺,限制了其在资源受限环境中的应用。蚂蚁集团 Ling 团队提出“不使用高级 GPU”扩展模型的目标,通过创新训练策略,突破资源与预算限制。具体策略包括:架构与训练策略革新,采用动态参数分配与混合精度调度技术;升级训练异常处理机制,自适应容错恢复系统缩短中断响应时间;优化模型评估流程,自动化评测框架压缩验证周期超 50%;突破工具调用能力,基于知识图谱的指令微调提升复杂任务执行精度。
广告声明:文内含有的对外跳转链接(包括不限于超链接、二维码、口令等形式),用于传递更多信息,节省甄选时间,结果仅供参考,蓝鸢梦想所有文章均包含本声明。

相关推荐

  • 友情链接:
  • PHPCMSX
  • 智慧景区
  • 微信扫一扫

    微信扫一扫
    返回顶部

    显示

    忘记密码?

    显示

    显示

    获取验证码

    Close