NVIDIA 战略

创建时间: 2026-05-03 来源: [[sources/#494--jensen-huang-nvidia--the-4-trillion-company--the-ai-revolution|494 – Jensen Huang NVIDIA – The $4 Trillion Company & the AI Revolution]] 相关: Jensen-HuangExtreme-Co-DesignState-of-AI-2026Scaling-Laws-Three-Axes


NVIDIA 从图形加速器到全球最高市值公司($4T+)的战略演进,以及它作为 AI 计算平台的未来愿景。核心洞察:公司最重要的属性是计算平台的安装基础,而非技术本身。

战略演进:三步走

第一步:加速器(1993—2000s 初)

专为特定任务优化的硬件。问题是:应用领域太窄 → 市场规模限制 R&D 投入 → 影响力有限。Jensen 始终知道这只是第一步。

第二步:加速计算(2000s—2015)

核心矛盾:成为通用计算公司会削弱专业性;专注专业性则限制计算能力。 NVIDIA 走了一条极窄的路:

  1. 可编程像素着色器 — 可编程性的第一步
  2. FP32 进入着色器 — IEEE 兼容,吸引了所有做流处理器和数据流处理器的人
  3. CG → CUDA — 逐步构建通用计算架构

第三步:AI 工厂(2016—至今)

计算的单位从 GPU → 计算机 → 集群 → 整个 AI 工厂。Jensen 的心智模型已经不再是拿起一块芯片,而是整个吉瓦级基础设施——电力接入电网、冷却系统、网络、数千工程师。

“My mental model is this giant gigawatt thing that has power generations connected to the grid.”

CUDA:史上最昂贵的赌注

把 CUDA 放到 GeForce 上是 NVIDIA 最接近生死存亡的战略决策,也是最伟大的决策。

决策逻辑:

  • 计算平台的核心是开发者
  • 开发者跟随安装基础——用户越多,越愿意开发
  • GeForce 每年卖出数百万块 GPU → 把 CUDA 放上去 = 每台 PC 变成超级计算机
  • 不管用户用不用 CUDA,先铺上去

代价:

  • CUDA 使 GPU 成本增加 ~50%
  • NVIDIA 当时毛利率只有 35% → CUDA 消耗了公司全部毛利润
  • 市值从 ~1.5B
  • 花了十年才爬回来

回报:

  • 数百万开发者把软件移植到 CUDA 上
  • 大学研究人员和学生(很多是玩家/自己组装 PC)发现了 CUDA
  • 深度学习革命的基础

“NVIDIA is the house that GeForce built.”

安装基础 = 最大护城河

安装基础是架构最重要的属性,其他都是次要的。

x86 的例子:被批评毫无美感,但靠安装基础成为定义性架构。许多精美设计的 RISC 架构反而失败了。

从开发者视角看 CUDA 的吸引力:

  • 今天选 CUDA,6 个月后性能提升 10 倍
  • 开发于 CUDA = 触达数亿计算机
  • 出现在每个云、每个计算机公司、每个行业、每个国家
  • 100% 信任 NVIDIA 会持续维护和优化 CUDA

“If I were a developer today, I would target CUDA first. I would target CUDA most.”

垂直整合 + 水平扩张

NVIDIA 不卖电脑、不建云——它是计算平台公司。

  • 垂直整合:跨全栈设计和优化(芯片→系统→软件)
  • 水平扩张:将平台开放给所有公司集成(Google Cloud、AWS、Azure、CoreWeave、Lilly 超算、汽车、机器人、卫星)
  • 一个架构覆盖所有系统和行业

“Nobody can buy anything from us. We vertically integrate to design and optimize, but then we open up the entire platform.”

四条 Scaling Law

Jensen 提出 AI 能力提升的四条扩展定律(另见 Scaling-Laws-Three-Axes):

1. 预训练扩展

模型越大 + 数据越多 → AI 越聪明。曾被宣布”数据用尽”(Ilya Sutskever),但合成数据改变了局面。训练不再受限于数据,而是受限于算力。

2. 后训练扩展

基于 Ground Truth 合成、增强、生成大量数据。大部分人类使用的数据本就是合成的——你创造、我消费、我修改、我再生成。

3. 推理时间扩展

曾被预测为”小芯片、简单、商品化”。但推理就是思考,而思考比阅读难得多。推理需要规划、搜索、分解、探索——极其计算密集。

4. 智能体扩展

一个智能体 spawn 出多个子智能体 = 乘法效应。比扩展人类团队容易得多。

四条定律形成飞轮:智能体创造数据 → 回到预训练 → 精调到后训练 → 推理时间增强 → 智能体使用 → 循环。

Token 工厂论

NVIDIA 增长”极其可能,且在 Jensen 看来,不可避免”——基于两个基础性技术转变:

  1. 检索 → 生成:计算机从文件检索系统变成实时生成上下文相关信息的系统。新世界需要的算力远超旧世界。
  2. 仓库 → 工厂:旧计算机是仓库(不怎么赚钱);新计算机是工厂(直接与公司收入挂钩)。

Token 正在像 iPhone 一样分层:免费 token、高级 token、中间层级。有人愿意为每百万 token 付 $1,000。智力是一个可规模化的产品。

全球 GDP 将加速增长,用于计算的占比将是过去的 100 倍。

“NVIDIA is not in the market share business. Almost everything that I just talked about don’t exist.”

开放源码策略

NVIDIA 开源 Nemotron 3 Super(120B 参数 MOE 模型,含模型+权重+数据+创建方法)。三重动机:

  1. 极端协同设计的一部分 — 必须理解 AI 模型如何演进(Nemotron 3 是 Transformer + SSM 混合)
  2. AI 扩散 — 如果一切闭源,AI 就无法进入每个行业、每个研究者、每个学生
  3. AI 不止语言 — 生物学、物理、流体力学、天气预测都需要前沿 AI 推进。NVIDIA 不造车,但要确保每个车厂有好模型

OpenClaw = “Token 的 iPhone”

Jensen 称 OpenClaw 之于智能体系统 = ChatGPT 之于生成式系统。它实现了两年前他在 GTC 描述的智能体架构:

  • 访问 Ground Truth(文件系统)
  • 做研究(不等 AI 全知全能就投入实用)
  • 使用工具(人形机器人进你家会用你的微波炉,而不是用手指射微波)

安全模型:NVIDIA 给出”三选二”权利——访问敏感信息、执行代码、外部通信——任何时刻只有两个。配合企业权限控制和策略引擎。

“OpenClaw did for agentic systems what ChatGPT did for generative systems.”

竞争护城河总结

  1. CUDA 安装基础 — 最核心。43,000 人 + 数百万开发者的信任
  2. 生态系统广度 — 垂直整合 + 水平覆盖每个行业
  3. 执行速度 — 一年一代,每年构建史上最大复杂度的计算机
  4. 供应链关系 — 200 个供应商、数百 CEO 级别的信任

参考资料

  • 来源:Lex Fridman Podcast #494,2026-03-23