作者 | 小小
出品 | 网易科技
免费的,往往才是最贵的。
这个道理你我都懂,但黄仁勋布下的这个“局”,实在是太“香”了。
就在扎克伯格反悔了,准备关上“开源大门”的时候,英伟达却突然大手一挥:自家的顶级模型、核心数据,统统免费送!
面对这份价值连城的厚礼,哪怕是再不懂行的人也看呆了:这可是价值连城的宝贝,英伟达疯了吗?
并没有。这是一场精心设计的“阳谋”: 就像送你免费的咖啡机,是为了让你一辈子买他的咖啡胶囊。老黄把软件门槛降到地板价,就是为了让你对他的芯片上瘾。你以为薅了英伟达的羊毛,其实早已成了他生态圈里的“打工人”。
(图片由AI生成)
这正如AI创企高管卢卡斯·阿特金斯(Lucas Atkins)的一语道破: 黄仁勋正在下一盘远超卖硬件的超级大棋——他不仅仅是在销售GPU,更是在用软件疯狂圈地,目标是让整个AI生态系统对英伟达产生无法戒断的“平台级依赖”。
通过发布包括5000亿参数在内的顶级开源模型,并史无前例地公开3万亿Token的训练数据,英伟达成功地让所有开发者都能以极低的门槛构建和优化自定义模型。
结果会怎样?
所有的开发者都需要更好的数据来跑更好的模型,所有的模型都需要更多的算力来跑更长的推理,而所有这些算力,最终都指向一个名字:英伟达的GPU。
这正是英伟达企业生成式AI软件副总裁卡里·布里斯基所强调的:“大语言模型和生成式AI是未来设计软件的方式,这是新的开发平台。”
英伟达CEO黄仁勋此前表示:“开放创新是AI进步的基础。通过Nemotron,我们正在将先进AI转化为一个开放平台。”
当Meta的Llama影响力减弱,中国军团(DeepSeek、Qwen、Kimi以及Z.ai、MiniMax)崛起之际,英伟达的这步棋,不仅是要对冲大客户“自研芯片”的风险,更是要“一鱼两吃”,用软件吞噬开源王座,再用硬件收割市场红利。
一、Meta“大撤退”:Llama停滞与“Avocado”转向
这场“王座更迭”的背景,是曾经的开源明星Meta“大撤退”。
2023年,Meta首次推出Llama,其快速、强大的性能,以及对研究人员开放部分代码的做法,曾是闭源巨头(OpenAI、谷歌)垄罩下的里程碑事件。Llama一度主导了开发者对开源技术的关注度。
然而,到了2025年,形势急转直下。Meta于4月推出的第四代Llama反响平平,在LMSYS广受欢迎的LMArena排行榜上,Llama模型已跌出前100名,被谷歌的Gemini、xAI Grok等专有模型以及中国公司的Qwen、DeepSeek、Kimi等开源新秀所取代。
更致命的是,行业观察者直指Meta战略的摇摆。风险投资公司Menlo Ventures的报告甚至将企业开源使用率的下滑(从去年的19%降至11%)归咎于Llama的“停滞不前”。
随后,彭博社的报道犹如投下一颗重磅炸弹:Meta即将进行的代号为“牛油果”的项目,可能会作为“封闭”模型推出,一个可被严格控制、并可出售访问权限的模型。 这一转向,无疑是Meta对其多年开源战略的最大背离。
英伟达副总裁布里斯基的回应充满自信和洞察力:“我同意Llama在衰退,但我不认同开源的衰退。”
她指出,开源领域的需求并未消失,只是领导者正在更迭,阿里巴巴的Qwen和DeepSeek等中国模型正在快速填补空缺。英伟达正是看准了这个“真空期”,果断出手,志在收割Meta留下的市场领导权。
Nemotron 3:从“卖芯片”到“造平台”的三大野心
英伟达发布的Nemotron 3系列模型,不仅仅是一组新的LLM,它是一份针对企业AI应用痛点开出的“三位一体”解决方案,完美服务于英伟达巩固其平台霸权的战略目标。
(图片由AI生成)
新系列模型涵盖了从300亿参数的Nano、1000亿参数的Super到5000亿参数的Ultra,规模空前强大。Nemotron 3 Nano在准确性和每秒Token生成数上甚至超越了OpenAI的GPT-OSS等顶尖模型。
1. 解决“最后一公里”定制化痛点
布里斯基强调,企业客户面临的一大挑战是对AI模型进行“专业化定制”,以应对从网络安全到电子设计自动化、医疗保健等各类垂直领域的任务。前沿的闭源模型虽然强大,但企业“不想把所有数据都发送给它们”。
(图片由AI生成)
因此,能够在“本地”运行的开源技术至关重要,它能真正帮助专家为特定领域的“最后一公里”需求进行专业化定制。Nemotron 3的多规格模型组合,就是为了覆盖从轻量级到重量级的广泛定制需求。
2. 直击“Token爆炸”的成本地雷
第三个挑战是Token成本的爆炸式增长。随着应用越来越复杂,如“长思考”或“推理”模型,LLM的调用次数和Token需求正在指数级上升。布里斯基指出,现在人们提出一个复杂问题,可能需要100次LLM调用,这在成本上是不可持续的。
(图片由AI生成)
为了优化成本和效率,Nemotron 3采用了新的“潜在专家混合”(MOE)架构。这种方法在不牺牲延迟和带宽的前提下,将内存使用效率提升了四倍,大大降低了运行模型的实际计算成本。更高效地使用GPU,意味着开发者可以跑更多模型,最终仍然需要更多的英伟达GPU。
3. 透明度“亮剑”:碾压Llama的开源底气
英伟达的最强杀手锏在于对透明度的极致强调,这使其站在了所有美国竞争对手的对立面。
当前,企业客户的一大顾虑是模型训练数据的来源。麻省理工学院的研究指出,真正的开源正在减少,许多模型只是“开源权重”而非“开源”。英伟达则彻底反击了这一趋势。
在HuggingFace上发布的Nemotron 3不仅包含模型权重,还包括用于预训练、后训练和强化学习的3万亿Token训练数据。布里斯基直言不讳地指出,Meta的团队“一直不够开放”,“Llama根本没有发布他们的数据集;他们只发布了权重。”她甚至透露,在去年英伟达与Meta合作将Llama 3.1模型转换为更小的Nemotron模型时,Meta曾拒绝向英伟达提供一小部分数据集以帮助模型“蒸馏”优化。
(图片由AI生成)
英伟达的策略是:如果你不知道模型的来龙去脉,你就无法信任它,更无法基于它构建你的核心业务。
这种将数据集、源代码和训练配方全盘托出的开放姿态,极大地降低了企业的信任门槛和定制难度,将Nemotron打造成了AI构建者心目中更可靠、更透明的基石。
三、“精明”的商业闭环:GPU的“永动机”
归根结底,英伟达的慷慨,是一场极度精明的商业布局。
作为全球市值最高的公司之一,英伟达要持续证明其巨额营收增长的合理性。它面临的挑战是,OpenAI、谷歌和Anthropic等大客户都在开发自有芯片,试图摆脱对英伟达技术的过度依赖。
英伟达的Nemotron 3策略正是对此风险的完美对冲:通过在软件层打造一个开放、高效、低门槛的平台,它确保了无论开发者是使用闭源还是开源模型,无论他们是选择巨头的前沿模型还是Nemotron的定制模型,最终他们都将不可避免地使用英伟达的GPU生态系统。
(图片由AI生成)
开源的Nemotron降低了所有人的入门门槛,更多人构建模型, 更多模型需要运行,更复杂的推理需要更多的LLM调用,对GPU算力需求的爆炸式增长。
这便是黄仁勋的“永动机”商业闭环。他用“开放创新”的华丽外衣,掩盖了对全球算力市场的绝对垄断和收割。正如他所言:“只要我们还活着,我们就会支持它。”
这句承诺,与其说是对开源社区的表态,不如说是对英伟达GPU平台不可替代性的坚定宣示。
在Meta战略收缩、中国军团强势崛起的关键时刻, Nemotron 3的开源,本质上是英伟达为了对抗大客户“去英伟达化”而修筑的护城河。它降低了所有人的门槛,却也提高了所有人的依赖。在这个新时代,英伟达不再仅仅是基础设施的提供者,它正在成为规则的制定者。
对于开发者而言,这是一场盛宴;对于竞争对手而言,这是一场噩梦。
(图片由AI生成)



































