几千人盲投,Kimi K2 超越 DeepSeek 拿下全球开源第一!歪果网友们直接炸了,评论区秒变夸夸打卡现场:今天,竞技场终于更新了 Kimi K2 的排名情况 ——开源第一,总榜第五,而且紧追马斯克 Grok 4 这样的顶尖闭源模型。
并且各类单项能力也不差,能和一水儿闭源模型打得有来有回:甚至眼尖的朋友也发现了,唯二闯入总榜 TOP 10 的开源模型都来自中国。(DeepSeek R1 总榜第 8)当然了,即使抛开榜单不谈,Kimi 这款新模型过去一周也确实火热 ——公开可查战绩包括但不限于下面这些:从实打实的数据来看,发布这一周里,Kimi K2 在开源社区就获得了相当关注度和下载量。GitHub 标星 5.6K,Hugging Face 下载量近 10 万,这还不算它在中国社区的应用。
连 AI 搜索引擎明星创企 Perplexity CEO 也亲自为它站台,并透露:
甚至由于访问的用户太多了,逼得 Kimi 官方也出来发公告:
……不过就在一片向好之时,人们关于“Kimi K2 采用了 DeepSeek V3 架构”的质疑声再度升温。
对此,我们也找到了 Kimi 团队成员关于 K2 架构的相关回应。总结下来就是,确实继承了 DeepSeek V3 的架构,不过后续还有一系列参数调整。p.s. 以下分享均来自知乎 @刘少伟,内容经概括总结如下~一开始,他们尝试了各种架构方案,结果发现 V3 架构是最能打的(其他顶多旗鼓相当)。所以问题就变成了,要不要为了不同而不同?经过深思熟虑,团队给出了否定答案。理由有两点:一是 V3 架构珠玉在前且已经经过大规模验证,没必要强行“标新立异”;二是自己和 DeepSeek 一样,训练和推理资源非常有限,而经过评估 V3 架构符合相关成本预算。所以他们选择了完全继承 V3 架构,并引入适合自己的模型结构参数。具体而言,K2 的结构参数改动有四点:
最终得到的推理方案就是,在相同专家数量下:就是说,这是一种更“精打细算”的结构调优。而且这种放弃自己的模型架构路线,彻底走 DeepSeek 路线的做法,也被国内网友评价为“相当大胆”。
△ 来源:知乎网友 @蛙哥OK,以上关于 Kimi 和 DeepSeek 架构之争的问题落定后,我们再把目光拉回到这次最新排名。一个很明显的趋势是:「开源 = 性能弱」的刻板印象正在被打破,开源模型已经越来越厉害了。不仅榜单上的整体排名在上升,而且分数差距也越来越小。仔细看,模型 TOP 10 总分均为 1400+,开源和闭源几乎可以看成位于同一起跑线。而且这次拿下开源第一的 Kimi K2,总分已经非常接近 Grok 4、GPT 4.5 等顶尖闭源模型了。
换句话说,以前我们可能还要在模型能力和成本之间作取舍,但随着开源力量的崛起,多思考一秒钟都是对开源的不尊重(doge)。与此同时,越来越多的行业人士也表达了对开源崛起的判断。艾伦人工智能研究所研究科学家 Tim Dettmers 表示:
Perplexity CEO 也多次在公开场合表示:而在已经逐渐崛起的开源模型领域,TOP 10 中唯二开源、且都是国产模型的含金量还在上升。参考链接:本文来自微信公众号:量子位(ID:QbitAI),作者:一水
广告声明:文内含有的对外跳转链接(包括不限于超链接、二维码、口令等形式),用于传递更多信息,节省甄选时间,结果仅供参考,蓝鸢梦想所有文章均包含本声明。