IT之家 4 月 24 日消息,据《科创板日报》今日报道,美团新一代基础大模型 LongCat-2.0-Preview 已经开放邀请测试,该模型总参数规模突破万亿,量级跻身全球顶尖大模型行列。这款尚未公布正式命名的大模型参数量级达到万亿级别,采用了混合专家(MoE)的先进架构,整体能力被业内人士认为对标 GPT-4。此外,有知情人士称该模型完全基于国产化算力集群训练,这表明美团可能已经率先在使用国产算力训练万亿模型上取得突破。早在 2024 年财报业绩会上,美团创始人王兴就曾首次公开披露美团的 GPU 储备战略,不仅在当年持续投入数十亿美元保障充足的算力供应,还明确表示未来将进一步加大投资力度,为大模型的研发筑牢基础。去年 9 月,美团已发布并开源了首款自研大语言模型 LongCat-Flash,该模型同样基于 MoE 架构,拥有 5600 亿总参数,凭借打破常规的“零计算专家机制”等创新优化设计,在保持了极高推理效率的同时显著降低了运营成本,详情可见IT之家此前报道。相关阅读:
广告声明:文内含有的对外跳转链接(包括不限于超链接、二维码、口令等形式),用于传递更多信息,节省甄选时间,结果仅供参考,蓝鸢梦想所有文章均包含本声明。
