提示工程
创建时间: 2026-05-08
来源: [[sources/【人工智能】AI还未达到极限,Scaling Law依然有效 Anthropic三巨头五小时播客专访 3.5 Opus AI变笨 AGI 模型训练 提示工程 机械可解释性]]
相关: Amanda-Askell,Software-3.0,Vibe-Coding-in-Prod
定义
提示工程(Prompt Engineering)是一种优化人机交互的技术,通过设计和调试输入提示,使 AI 模型能更准确地理解用户意图和需求。成功的提示工程能显著提升模型输出质量。
Amanda Askell 将其提升到了哲学高度:提示工程不只是写指令,而是一种与模型合作的严谨思维过程。
Amanda Askell 的方法论
1. 极致清晰
- 像写哲学论文一样定义每个概念
- 明确自身需求——模糊的提示产生模糊的输出
- 如果想要最大化模型表现,必须精细化提示
2. 反复迭代
- 不是一次性写好,而是通过不断实验和调整来优化
- 「常常需要进行大量的修改」是常态而非失败
3. 双向沟通
提示工程不是单向指令输入,而是与模型合作的过程:
- 遇到模型误解时,询问模型原因
- 让模型提供「如何写提示」的建议
- 建立双向沟通渠道,而非单向命令
4. 换位思考
- 提示工程中哲学训练帮助很大
- 理解模型如何「思考」你的提示
- 从模型的角度审视你的措辞
系统提示词 vs 后训练
Askell 将系统提示词与后训练的关系比作「两把精巧的钥匙」:
| 维度 | 系统提示词 | 后训练 |
|---|---|---|
| 成本 | 低 | 低 |
| 灵活性 | 高,可快速调整 | 相对持久 |
| 影响范围 | 行为引导 | 能力塑造 |
| 关系 | 相辅相成 | 相辅相成 |
系统提示词的关键决策
- 引导中立 — 在处理争议观点时保持开放,避免因偏见拒绝任务
- 不宣称客观 — 即使精心设计,输出仍可能存在偏向性
- 移除填充性短语 — 打破模型训练惯性,增强灵活性
实践技巧
- 清晰定义每一个概念 — 不让模型猜测你的意图
- 提供上下文 — 具体而非笼统
- 迭代而非一次性完成 — 提示是对话的起点
- 让模型参与提示设计 — 询问「我应该如何描述我的需求才能让你更好地理解?」
- 注意输入的敏感性 — 细微措辞变化可能导致显著不同的输出
与 Software 3.0 的关系
提示工程是 Software-3.0 范式(Karpathy 提出)的核心实践——在 Software 3.0 中,模型行为通过提示而非代码来定义。Askell 的方法论为 Software 3.0 提供了实操层面的补充。
参考资料
- 来源:Lex Fridman 访谈 Anthropic 三巨头(2024-11),Amanda Askell 部分