2025年的AI行业,从一场震动开始。
1月20日,DeepSeek发布了开源推理模型R1。硅谷顶级风投Marc Andreessen在社交媒体上写道:“这是我见过的最惊人、最令人印象深刻的突破之一。”在那之后的几天里,DeepSeek的app超越ChatGPT登顶美国App Store,英伟达市值一天蒸发近6000亿美元,有人把这称为AI的Sputnik时刻。
这是中国开源模型第一次以这样的方式进入全球视野。而它打开的,是一整年的故事。
到了年底,一份年终盘点在AI圈流传开来。写盘点的人叫Nathan Lambert,艾伦人工智能研究所的研究员,同时也是业内颇有影响力的newsletter「Interconnects」的主理人。每个月,全球有三四万个新模型被上传到Hugging Face,而Lambert的工作之一,就是从这片汪洋里捞出真正值得关注的那几十个。
在那篇《2025 Open Models Year in Review》里,他把各家机构分成了几个梯队。站在最顶端那一层,他写的是Frontier,最前沿。
这一层只有三个名字:DeepSeek、Qwen、Kimi。
这让人想起大洋彼岸的另一个“三巨头”格局:OpenAI、Google、Anthropic。闭源世界的竞争已经打了好几年,座次虽有变化,但头部玩家的名字早就被念熟了。而在开源这一侧,2025年似乎也终于跑出了自己的“御三家”。
不是自封的,是研究者写进榜单,也是开发者用脚投票,一起选出来的。
老黄的预言
其实早在半年前,就有人给出过类似的判断。
今年7月,英伟达CEO黄仁勋来到北京,参加中国国际供应链促进博览会。在和阿里云创始人王坚的一场炉边对话里,他被问到怎么看中国的AI模型。
老黄的回答很直接:DeepSeek、Qwen、还有Kimi,这三家提供了“世界上最好的开源推理模型”。
他还补了一句,开源的意义不只是对中国,也是对全世界。别忘了,开源有很多全球性的意义。开源模型不仅帮助了中国的生态系统,也在帮助全球的生态系统。
当时这番话没有激起太大水花。毕竟黄仁勋到哪儿都要夸一夸当地的客户和合作伙伴,听起来更像是外交辞令。
但半年过去,再回头看这句话,会发现老黄的眼光相当准。他随口点的那三个名字,恰好就是年底被Lambert写进Frontier的那三家。
不过,研究者的榜单和CEO的点名,终归还是带着几分观点的色彩。真正能说明问题的,是那些用真金白银和产品决策投出的票。
真金白银的信任票
先说Perplexity。
这家被称为"AI搜索引擎"的公司,大概是过去一年全球增长最快的AI产品之一。它的Pro Search功能允许用户选择不同的底层模型来驱动搜索,模型选择菜单,你会看到GPT、Claude、Gemini、Grok这些熟悉的名字。
而在最近的更新里,这个列表中出现了一个来自中国的选项:Kimi K2 Thinking。
这里有一个细节值得玩味。Perplexity也使用了DeepSeek的技术,但目前是作为自家Sonar Reasoning Pro的底层驱动。而Kimi K2则是作为一个独立的品牌选项,直接出现在用户的选择菜单里。不一定有高下之分,但确实是两种不同的存在方式。
再说一个更重磅的。
12月12日,由前OpenAI首席技术官Mira Murati创立的AI初创公司Thinking Machines Lab宣布,旗下首款产品Tinker正式结束内测、全面开放。Mira Murati曾主导ChatGPT、DALL-E、Codex等产品的开发与发布,也被誉为“ChatGPT背后的女人”。
她的这家新公司来头不小。今年早些时候,Thinking Machines Lab完成了20亿美元的种子轮融资,估值120亿美元,投资方包括a16z、英伟达、AMD等。团队成员则来自OpenAI、Google、Meta、Mistral等公司,被认为是“OpenAI黑帮”中最受瞩目的创业项目。
Tinker是一个面向开发者的模型微调平台,核心卖点是让研究者和开发者能够在顶尖模型的基础上做定制化训练。在官宣中,Thinking Machines Lab列出了首批支持的模型名单。
Kimi K2 Thinking和Qwen都在列,前者被放在“Reasoning Model”(推理模型)的位置,后者被放在“Vision Input”(视觉输入)的位置。
一个定义过ChatGPT的人,选择把中国模型放进她新公司的默认武器库,这本身就是一种重量级的背书。
还有一张票,来自硅谷的顶级风险投资人Chamath Palihapitiya。
这个名字可能圈外人不太熟,但在科技圈他是个响当当的人物:前Facebook早期高管,Social Capital创始人,同时也是硅谷最火的科技播客All-In Podcast的主持人之一。今年10月,他在节目里公开说了一件事:Social Capital已经把核心工作流从OpenAI和Anthropic迁移到了Kimi K2。
他的原话是,“way more performant and frankly just a ton cheaper”,性能强得多,而且说实话,便宜太多了。
这就是一个顶级VC在最火的科技播客上公开“叛变”。
总的来说,开源“御三家”各有各的路数。DeepSeek有点像早期的OpenAI,一帮理工男搞极客技术,数学代码贼强;Qwen背靠阿里,有点像Google,大而全,多模态也很强;而Kimi呢,在Nathan Lambert看来,它卡住的更像是Anthropic的位置,主打一个懂你、会思考。
格局初定,故事刚开始
回到开头Nathan Lambert的那张榜单。
他的年终盘点其实病不是孤例。就在12月初,OpenRouter和a16z联合发布了一份关于全球大模型使用情况的报告,数据同样指向了这三个名字。
报告显示,中国开源模型在全球的使用份额从2024年底的1.2%,飙升到了2025年的近30%。作为参照,其他所有非中国开源模型"的平均份额是13%,也就是说,中国开源模型的全球使用量,已经几乎是其他所有国家开源模型总和的两倍。
而推动这波增长的主力,就包括Qwen、DeepSeek和Kimi。
某种意义上,御三家的浮现,也是开源精神在AI领域的一次集中兑现。曾经,开源在大模型语境里更多是一种姿态,而现在,它正在变成一种真正的竞争力,不只是在国内卷,而是被全球的开发者、产品和资本选择。
格局或许已经初步形成。但在Agent时代的大幕刚刚拉开的当下,谁能跑得更远,故事才刚刚开始。



































