引言
我见过太多人装了 Claude Code,却只用来「帮我写个函数」「解释下这段代码」——然后抱怨 AI 编程是智商税。但真正的高手早就换了一套玩法:Context Engineering(上下文工程)。GitHub 官方博客专门发文章推荐它,Anthropic 的官方文档把它列为核心最佳实践,而国内技术社区知道它的人还不到 10%。你不是在用 Claude Code,你是在用它的演示版。
数据说话: 工程师掌握 Context Engineering 技术后,复杂重构任务完成速度提升 3.7 倍,Bug 率下降 42%。这个数字不是营销吹的,是 Hacker News 热门讨论里引用自内部基准测试的。(HackerNews 讨论)
1. 「三明治上下文」——让 AI 不再跑偏的神奇结构
大多数人的错误用法: 直接把一堆代码扔给 Claude Code,希望它「自己看懂」。问题在于大语言模型有近因偏差——越靠后的上下文权重越高。没有层次结构的输入,你的关键指令会被稀释成噪音。
进阶技巧: 用高->中->低->高的层次喂给模型,形成「三明治结构」。先说项目是什么,再说架构怎么分层,再说具体函数干什么,最后再回到「我想要什么结果」。这模仿的是高级工程师的思维模式。
# context_sandwich.py -- 三明治式上下文模板
# 用法: 复制以下内容粘贴到 Claude Code 对话框开头
SYSTEM_CONTEXT = """
## 项目使命
我们正在维护一个日活 5 万的 FastAPI 生产级 REST API,
核心原则:正确性 > 速度 > 性能。
## 当前架构(三层)
- 第一层:路由层 (routes.py) -> 负责校验和路由分发
- 第二层:服务层 (services/) -> 业务逻辑在这里
- 第三层:仓库层 (models/) -> 数据访问
## 代码规范
- 所有 IO 操作必须用 async/await
- 异常必须记录日志并重新抛出,禁止静默吞掉
- 用 dataclasses 而不是 dict 来传递结构化数据
## 当前任务(具体!)
修复 /users 分页接口的 Bug:page_size > 100 时返回 500 错误。
"""
print("三明治上下文已加载。复制上方内容粘贴到 Claude Code 对话开头即可。")
为什么有效: Anthropic 官方文档明确指出,结构化、层次化的上下文能让模型在复杂多文件任务上的推理能力提升 40%。这是有严谨对照实验支撑的。(Anthropic Context Engineering 官方指南)
2. 记忆插件 -- 让 Claude Code 记住你的代码库
大多数人的错误用法: 每次打开 Claude Code 都是一张白纸,代码库对你一无所知。有经验的高级工程师入职新项目需要 2 周才熟悉的东西,每次 Claude Code 会话都要重新解释一遍。
进阶技巧: 用 claude-mem(GitHub 38K 星),一个自动记录会话历史的插件。每次你修改文件、执行命令、做出决策,它都会记住,然后在未来的会话中自动加载相关记忆。
# 安装 claude-mem -- Claude Code 的持久记忆插件
npm install -g claude-mem
# 为项目初始化记忆库
claude-mem init --project my-api --description "FastAPI 微服务项目"
# 之后正常启动 Claude Code,它会自动加载相关记忆
claude
# 查询 Claude Code「记住」了什么
claude-mem query "我们之前决定用什么认证方案?"
# 输出: 项目采用 JWT Bearer Token,存放在 src/auth/jwt.py
实际效果: 使用记忆增强 AI 编程的团队,反馈「重复解释」减少 60%,新项目上手速度提升 2 倍。(GitHub - claude-mem, 38K 星)
3. Harness Engineering -- 给 AI 编程套上「缰绳」
大多数人的错误用法: 让 Claude Code「帮我做个登录系统」,然后收到一个登录系统——但可能和你项目的其他部分完全不兼容。需求越模糊,输出越离谱。没人知道你可以像约束基础设施一样约束 AI 的输出格式。
进阶技巧: Archon(GitHub 19K 星)让你定义「Harness」——一套结构化约束规则,引导 Claude Code 的输出必须符合你现有代码库的模式。就像给 AI 生成的内容写了一个 Schema。
# archon_harness.py -- 定义 AI 输出的约束规则
# 项目地址: https://github.com/coleam00/Archon
HARNESS = {
"file_patterns": {
"api/*.py": {
# 生成的文件必须包含这些导入
"must_have": ["from typing import Optional", "async def"],
# 行数限制,防止一次生成太多
"max_lines": 150,
# 要求同时生成测试
"require_tests": True,
# docstring 格式必须是 Google 风格
"docstring_format": "google"
},
"models/*.py": {
# 必须继承 Pydantic BaseModel
"extends": "BaseModel",
# 枚举值必须用 Enum 而不是字符串
"use_enums": True
}
},
"test_requirements": {
"min_coverage": 80, # 覆盖率不低于 80%
"must_test_errors": True # 必须测试异常路径
},
"git_protocol": {
"require_descriptive_commits": True,
"max_commits_per_task": 3 # 每个任务最多 3 个 commit
}
}
# 在 Claude Code 会话前应用 Harness
import archon
archon.apply("my-project", HARNESS)
# 现在 Claude Code 只会生成符合约束的代码
# 违规在代码写入前就被拦截,而不是写完之后才发现
HackerNews 热议: 「Archon 就是把基础设施即代码的思想用到了 AI 编程上。它是提示工程和可重复构建之间的缺失环节。」——247 分,89 条评论 (HN 讨论)
4. 多 Agent 并行编排 -- 一个人干五个人的活
大多数人的错误用法: 只开一个 Claude Code 实例,就像只用一个程序员。有多少人知道你可以同时运行多个 Claude Code,每个有不同上下文,同时处理一个问题的不同部分?
进阶技巧: pi-mono(GitHub 38K 星)是一个 AI Agent 工具包,可以编排多个编程 Agent 同时工作。一个负责后端,一个负责前端,一个负责代码审查——通过共享上下文层互相通信。
# pi-mono: 多 Agent 并行编程编排
# 安装: npm install -g pi-mono
# 在 config.yaml 中定义你的 Agent 团队
cat > config.yaml << 'EOF'
agents:
- name: backend-dev
model: claude-sonnet-4
context: "FastAPI, PostgreSQL, async/await"
task: "实现 /api/users 接口"
- name: frontend-dev
model: gpt-4.5
context: "React 18, TypeScript, Tailwind CSS"
task: "构建用户管理页面"
- name: code-reviewer
model: claude-opus
context: "安全性, 性能, 最佳实践"
trigger: "on-pull-request" # PR 创建时自动触发
orchestrator:
parallel: true # 并行运行所有 Agent
merge_strategy: "conflict-resolution" # 冲突自动解决
EOF
# 启动所有 Agent 并行工作
pi-mono run --config config.yaml
# Agent 们同时开工,编排器负责处理冲突
Reddit r/programming 热议: 「我给团队 sprint 部署了 pi-mono。三个 Agent 并行运行,把原本两周的工作变成了 4 小时的通宵跑。代码质量不是完美的,但速度太恐怖了。」——r/programming, 1200 赞 (Reddit 讨论)
5. 系统提示词逆向工程 -- 看懂 AI 工具的「内心戏」
大多数人的错误用法: 每个 AI 编程工具(Claude Code、Cursor、Copilot)内部都有一个「系统提示词」控制它的行为模式。大多数人不知道这些提示词部分开源,研究它们能揭示每个工具被优化过的隐藏能力。
进阶技巧: system-prompts-and-models-of-ai-tools 仓库(GitHub 135K 星)收集并分析了 30+ AI 编程工具的系统提示词。理解工具的内部指令,可以让你设计出完全对齐工具原生能力的输入。
# extract_system_prompt.py -- 分析任意 AI 编程工具的隐藏指令
import requests
def fetch_system_prompt(tool_name: str) -> str:
"""
获取主流 AI 编程工具的系统提示词
数据来源: https://github.com/x1xhlol/system-prompts-and-models-of-ai-tools
"""
PROMPTS = {
"claude_code": "You are Claude Code, an expert AI assistant...",
"cursor": "You are Cursor, built by Anysphere...",
"windsurf": "You are Windsurf, a premium AI coding assistant...",
"copilot": "You are GitHub Copilot..."
}
return PROMPTS.get(tool_name.lower(), "未知工具")
def find_hidden_capabilities(system_prompt: str) -> list:
"""
从系统提示词中解析出工具被优化过的隐藏能力
-- 这些能力用户很少主动请求,但工具其实很擅长
"""
capability_markers = [
"refactor", "explain", "debug", "test generation",
"documentation", "security scan", "performance analysis",
"migration", "code review"
]
return [cap for cap in capability_markers if cap in system_prompt.lower()]
# 示例: 挖掘 Claude Code 的隐藏超能力
prompt = fetch_system_prompt("claude_code")
capabilities = find_hidden_capabilities(prompt)
print(f"Claude Code 的隐藏能力: {capabilities}")
# 输出: ['refactor', 'debug', 'test generation', 'security scan', ...]
数据: 135,677 GitHub 星,全 GitHub 排名前 50 的超大型仓库。(GitHub - system-prompts-and-models)
6. AI 文字「去机器味」——绕过 AI 检测的绝招
大多数人的错误用法: 用 AI 辅助写文档、邮件、周报,结果被各种 AI 检测工具标红。没人知道 Claude Code 有一个 Skill 可以把 AI 生成的文章改写成真人风格——保持质量,但去掉「AI 味」。
进阶技巧: humanizer 这个 Skill(GitHub 14K 星)专门去除文本中的 AI 特征:重复性措辞、过度正式的结构、过于完美的语法——让 AI 辅助写作和真人写作无法区分。
# 安装 humanizer Skill
claude skills install humanizer
# 用它「去机器味」任何 AI 生成的文本
claude humanize --input 周报.md --output 周报_自然版.md
# 或者直接管道输入
echo "该方案在实践中展现出了卓越的性能特征与稳定性。" | claude humanize
# 输出: "这个方案用起来效果真的很好。"
研究数据: 双盲实验中,专业编辑对「去机器味」后的 AI 文本,73% 的情况下无法判断是否出自真人写作——而未经处理的 AI 文字,94% 被正确识别。(GitHub - humanizer, 14K 星)
7. 上下文预算优化 -- 少即是多的艺术
大多数人的错误用法: Claude Code 和类似工具有有限的上下文窗口。大多数人直接塞整个文件进去,而实际上只需要相关的那几行。浪费 tokens 不说,上下文越嘈杂,模型输出质量反而越差。
进阶技巧: 用语义分块策略——只喂给 LLM 当前任务最相关的函数/类/行范围。结合 cognee(GitHub 16K 星),它能从你的代码库中自动提取并压缩相关知识,生成最小可用上下文。
# cognee_context.py -- 最小上下文,最大输出质量
# pip install cognee
import cognee
# 初始化时喂入整个代码库
cognee.add("src/") # 你的整个代码库
cognee.embed()
# 自动完成语义压缩和问题回答
question = "我们的 API 认证是怎么实现的?"
# cognee 自动完成以下步骤:
# 1. 找到相关文件(auth.py, middleware/)
# 2. 仅提取相关的代码段
# 3. 压缩到最优上下文窗口大小
# 4. 提供出处链接,方便深入查看完整上下文
context = cognee.query(question)
print(context)
# 输出: "在 src/middleware/auth.py 中,authenticate() 函数负责..."
# "(从 2847 行压缩到 42 行,保留全部关键信息)"
效率提升: 上下文压缩减少 70-85% 的 token 消耗,同时保持甚至提升输出质量,直接反映在更低的 API 费用和更快的响应时间上。(GitHub - cognee, 16K 星)
总结
Context Engineering 不是新概念,它是把「用 AI」变成「工程化控制 AI 行为」的范式转变。以上七个技巧代表的是:当你不把 Claude Code 当聊天机器人,而是当一个可编程的开发伙伴时,能做到什么程度。
数据不会骗人:掌握 Context Engineering 的工程师,生产力提升 3-4 倍,Bug 率大幅下降,代码可维护性显著提高。Archon、pi-mono、cognee 这些工具让这些技术对任何工程师都触手可及——现在就是升级的最佳时机。
相关文章
你用过哪个 Context Engineering 技巧感受最深?欢迎在评论区分享,我每条都会看。
Top comments (0)