上下文工程
上下文工程聚焦于大语言模型(LLM)中有限上下文窗口管理的关键挑战。它涵盖了选择、组织和优化模型在推理时可访问信息的策略。
上下文窗口挑战
什么是上下文窗口?
上下文窗口是 LLM 在单次请求中可处理的最大文本量(以 token 计量)。这包括:
- 系统提示词
- 对话历史
- 检索到的文档
- 用户输入
- 预期输出
上下文窗口大小(2025)
| 模型 | 上下文窗口 | 备注 |
|---|---|---|
| GPT-4 Turbo | 128K tokens | 经过生产验证 |
| Claude 3.5 Sonnet | 200K tokens | 代码能力出色 |
| Gemini Pro | 1M tokens | 目前最大 |
| Claude 3 Opus | 200K tokens | 高质量输出 |
关键洞察:Token 数量 ≠ 词数量。大约 1K tokens ≈ 750 个英文单词,但代码和特殊字符消耗更多 token。
核心问题
1. 容量有限
问题:重要信息在超出上下文窗口时被截断。
示例:500 页的技术手册无法放入单次请求中。
影响:模型无法看到所有相关信息,可能遗漏关键细节。