NVIDIA 战略
创建时间: 2026-05-03
来源: [[sources/#494--jensen-huang-nvidia--the-4-trillion-company--the-ai-revolution|494 – Jensen Huang NVIDIA – The $4 Trillion Company & the AI Revolution]]
相关: Jensen-Huang,Extreme-Co-Design,State-of-AI-2026,Scaling-Laws-Three-Axes
NVIDIA 从图形加速器到全球最高市值公司($4T+)的战略演进,以及它作为 AI 计算平台的未来愿景。核心洞察:公司最重要的属性是计算平台的安装基础,而非技术本身。
战略演进:三步走
第一步:加速器(1993—2000s 初)
专为特定任务优化的硬件。问题是:应用领域太窄 → 市场规模限制 R&D 投入 → 影响力有限。Jensen 始终知道这只是第一步。
第二步:加速计算(2000s—2015)
核心矛盾:成为通用计算公司会削弱专业性;专注专业性则限制计算能力。 NVIDIA 走了一条极窄的路:
- 可编程像素着色器 — 可编程性的第一步
- FP32 进入着色器 — IEEE 兼容,吸引了所有做流处理器和数据流处理器的人
- CG → CUDA — 逐步构建通用计算架构
第三步:AI 工厂(2016—至今)
计算的单位从 GPU → 计算机 → 集群 → 整个 AI 工厂。Jensen 的心智模型已经不再是拿起一块芯片,而是整个吉瓦级基础设施——电力接入电网、冷却系统、网络、数千工程师。
“My mental model is this giant gigawatt thing that has power generations connected to the grid.”
CUDA:史上最昂贵的赌注
把 CUDA 放到 GeForce 上是 NVIDIA 最接近生死存亡的战略决策,也是最伟大的决策。
决策逻辑:
- 计算平台的核心是开发者
- 开发者跟随安装基础——用户越多,越愿意开发
- GeForce 每年卖出数百万块 GPU → 把 CUDA 放上去 = 每台 PC 变成超级计算机
- 不管用户用不用 CUDA,先铺上去
代价:
- CUDA 使 GPU 成本增加 ~50%
- NVIDIA 当时毛利率只有 35% → CUDA 消耗了公司全部毛利润
- 市值从 ~1.5B
- 花了十年才爬回来
回报:
- 数百万开发者把软件移植到 CUDA 上
- 大学研究人员和学生(很多是玩家/自己组装 PC)发现了 CUDA
- 深度学习革命的基础
“NVIDIA is the house that GeForce built.”
安装基础 = 最大护城河
安装基础是架构最重要的属性,其他都是次要的。
x86 的例子:被批评毫无美感,但靠安装基础成为定义性架构。许多精美设计的 RISC 架构反而失败了。
从开发者视角看 CUDA 的吸引力:
- 今天选 CUDA,6 个月后性能提升 10 倍
- 开发于 CUDA = 触达数亿计算机
- 出现在每个云、每个计算机公司、每个行业、每个国家
- 100% 信任 NVIDIA 会持续维护和优化 CUDA
“If I were a developer today, I would target CUDA first. I would target CUDA most.”
垂直整合 + 水平扩张
NVIDIA 不卖电脑、不建云——它是计算平台公司。
- 垂直整合:跨全栈设计和优化(芯片→系统→软件)
- 水平扩张:将平台开放给所有公司集成(Google Cloud、AWS、Azure、CoreWeave、Lilly 超算、汽车、机器人、卫星)
- 一个架构覆盖所有系统和行业
“Nobody can buy anything from us. We vertically integrate to design and optimize, but then we open up the entire platform.”
四条 Scaling Law
Jensen 提出 AI 能力提升的四条扩展定律(另见 Scaling-Laws-Three-Axes):
1. 预训练扩展
模型越大 + 数据越多 → AI 越聪明。曾被宣布”数据用尽”(Ilya Sutskever),但合成数据改变了局面。训练不再受限于数据,而是受限于算力。
2. 后训练扩展
基于 Ground Truth 合成、增强、生成大量数据。大部分人类使用的数据本就是合成的——你创造、我消费、我修改、我再生成。
3. 推理时间扩展
曾被预测为”小芯片、简单、商品化”。但推理就是思考,而思考比阅读难得多。推理需要规划、搜索、分解、探索——极其计算密集。
4. 智能体扩展
一个智能体 spawn 出多个子智能体 = 乘法效应。比扩展人类团队容易得多。
四条定律形成飞轮:智能体创造数据 → 回到预训练 → 精调到后训练 → 推理时间增强 → 智能体使用 → 循环。
Token 工厂论
NVIDIA 增长”极其可能,且在 Jensen 看来,不可避免”——基于两个基础性技术转变:
- 检索 → 生成:计算机从文件检索系统变成实时生成上下文相关信息的系统。新世界需要的算力远超旧世界。
- 仓库 → 工厂:旧计算机是仓库(不怎么赚钱);新计算机是工厂(直接与公司收入挂钩)。
Token 正在像 iPhone 一样分层:免费 token、高级 token、中间层级。有人愿意为每百万 token 付 $1,000。智力是一个可规模化的产品。
全球 GDP 将加速增长,用于计算的占比将是过去的 100 倍。
“NVIDIA is not in the market share business. Almost everything that I just talked about don’t exist.”
开放源码策略
NVIDIA 开源 Nemotron 3 Super(120B 参数 MOE 模型,含模型+权重+数据+创建方法)。三重动机:
- 极端协同设计的一部分 — 必须理解 AI 模型如何演进(Nemotron 3 是 Transformer + SSM 混合)
- AI 扩散 — 如果一切闭源,AI 就无法进入每个行业、每个研究者、每个学生
- AI 不止语言 — 生物学、物理、流体力学、天气预测都需要前沿 AI 推进。NVIDIA 不造车,但要确保每个车厂有好模型
OpenClaw = “Token 的 iPhone”
Jensen 称 OpenClaw 之于智能体系统 = ChatGPT 之于生成式系统。它实现了两年前他在 GTC 描述的智能体架构:
- 访问 Ground Truth(文件系统)
- 做研究(不等 AI 全知全能就投入实用)
- 使用工具(人形机器人进你家会用你的微波炉,而不是用手指射微波)
安全模型:NVIDIA 给出”三选二”权利——访问敏感信息、执行代码、外部通信——任何时刻只有两个。配合企业权限控制和策略引擎。
“OpenClaw did for agentic systems what ChatGPT did for generative systems.”
竞争护城河总结
- CUDA 安装基础 — 最核心。43,000 人 + 数百万开发者的信任
- 生态系统广度 — 垂直整合 + 水平覆盖每个行业
- 执行速度 — 一年一代,每年构建史上最大复杂度的计算机
- 供应链关系 — 200 个供应商、数百 CEO 级别的信任
参考资料
- 来源:Lex Fridman Podcast #494,2026-03-23