Jagged Intelligence(锯齿智能)
创建时间: 2026-04-30
来源: [[sources/Andrej Karpathy From Vibe Coding to Agentic Engineering - 逐字稿]]
相关: Post-Training-Era,Vibe-Coding-to-Agentic-Engineering,RL-Infra-for-LLM,State-of-AI-2026,Scaling-Laws-Three-Axes
什么是锯齿智能
LLM 的能力不是均匀的——它们在某些领域极其出色,在其他领域令人惊讶地愚蠢。这种不均匀的能力分布就是 Karpathy 所说的 Jagged Intelligence(锯齿状智能)。
“How is it possible that state-of-the-art Opus 4.7 will simultaneously refactor a 100,000-line codebase or find zero-day vulnerabilities and yet tells me to walk to a car wash 50 meters away? This is insane.”
这是 jaggedness 最好的例证:同一個模型,在代码维度上是世界级专家,在常识维度上不如一个五岁小孩。
根因 1:可验证性(Verifiability)
锯齿状能力的第一个解释来自训练方式:
- 前沿实验室使用**大规模强化学习(RL)**训练 LLM
- RL 需要验证奖励(verification rewards)——能自动判断输出是否正确
- 在可验证领域(数学、代码),模型的能力飙升——因为 RL 有明确的信号
- 在不可验证领域(写作质量、审美判断、常识推理),模型停滞或粗糙
“Because of the way these models are trained, they end up creating these jagged entities that really peak in capability in verifiable domains like math and code, and stagnate when things are not in that space.”
可验证 = 可自动化。这既是当前 LLM 的训练原理,也是判断什么工作会被 AI 加速的核心框架。
根因 2:实验室优先级
锯齿状不是纯粹的技术约束——实验室的选择同样决定了能力分布:
案例 — GPT-3.5 → GPT-4 国际象棋能力暴增:
- 很多人以为这是通用能力自然提升
- 实际上是因为有人往预训练数据中加入了大量棋谱
- 一个特定的数据决策创造了特定的能力峰值
“Someone at OpenAI decided to add this data and now you have a capability that just peaked a lot more.”
另一个方向的案例 — 代码简化能力缺失:
- Karpathy 的 MicroGPT 项目试图让 LLM 把代码简化到极致
- 模型”讨厌这个”(hate this),完全做不到
- “感觉像是在拔牙”(pulling teeth),不在光速飞行的 RL 电路里
结论:我们一定程度上受制于实验室的决定——他们给什么数据、做什么 RL,什么能力就突出。模型是没有说明书的黑箱,你必须自己去探索在什么场景下它是天才、什么场景下它是白痴。
根因 3:Animals vs Ghosts(动物 vs 幽灵)
Karpathy 提出了一个哲学框架来理解 LLM 的本质特征:
| Animals(动物智能) | Ghosts(LLM 智能) | |
|---|---|---|
| 来源 | 进化塑造 | 数据 + 奖励函数塑造 |
| 驱动力 | 内在动机、好奇心、empowerment | 无内在动机 |
| 对反馈的反应 | 情绪影响行为 | 情绪不影响行为 |
| 本质 | 有生命的智能体 | 统计模拟电路 |
| 训练 | 自然环境选择 | 预训练(统计)+ RL(焊接) |
“If you yell at them, they’re not going to work better or worse. It doesn’t have any impact. It’s all just statistical simulation circuits.”
LLM 是被召唤出的幽灵,不是被驯养的动物。这个心智模型影响你如何使用它们:
- 对 LLM 生气没有意义
- 需要被”驯服”的行为(内在动机、好奇心)目前不在训练回路里
- 理解它们的本质=更胜任地使用它们
Karpathy 承认这个框架更多是”哲学思辨”,但它是建立正确使用心智模型的起点——保持怀疑,逐步摸索。
实践含义:你在不在 RL 电路里?
锯齿智能对应用开发的直接指导:
-
判断你的场景是否在 RL 电路里:
- 如果在 → 起飞,模型表现优异
- 如果不在 → 需要自己做 fine-tuning,不能指望 out-of-the-box 效果
-
可验证性是可迁移的技术:
- 即使实验室不关注你的领域,如果你能创建 RL 环境(大量多样化数据集 + 验证奖励),你就可以自己 fine-tune
- “Pull the lever and get something that actually works pretty well”
-
人类仍需在回路中:
- 正因为模型是锯齿状的,你不能完全信任它
- “You need to treat them as tools and you do have to stay in touch with what they’re doing”
开放问题
- 锯齿状是天生的还是暂时的?Karpathy 认为没有根本性障碍阻止它改善——只是实验室还没做
- 审美/品味(aesthetics cost/reward)能否被纳入 RL 训练?
- 如果所有领域都变成可验证的,锯齿会消失吗?还是只是变成不同形状的锯齿?
参考资料
- 来源:Andrej Karpathy From Vibe Coding to Agentic Engineering - 逐字稿(Sequoia Capital 访谈,2026)
- Karpathy 关于 verifiability 的博客文章
- Karpathy 关于 animals vs ghosts 的博客文章