如何构建“能听懂人话”的复杂技能?拆解 write-a-skill 的渐进式结构
在尝试为 AI 开发自定义技能(Skills)时,大多数开发者都会掉进同一个坑:试图写一个极其复杂的 Prompt,涵盖所有可能的边界情况。结果就是 AI 变得反应迟钝,或者在执行中途迷路。真正的“大师级”技能开发,不应该是写长篇大论的指令,而应该是构建一套具备**渐进式披露(Progressive Disclosure)**能力的逻辑框架。
Matt Pocock 的 skills 项目中内置了一个非常有趣的元技能——write-a-skill。它不仅是用来创建新技能的工具,更是一套关于“如何教 AI 学习新规矩”的架构指南。
💡 报错现象总结:开发者在编写自定义 Skill 时,常因 Prompt 逻辑耦合度过高,导致 AI 无法准确执行多步任务。常见的报错包括资源路径引用失效(Resource Not Found)或技能元数据(Metadata)定义不规范,导致
npx skills add时无法正确解析目录结构。
告别“屎山 Prompt”:为什么你需要渐进式披露?
如果你直接给 AI 一堆杂乱无章的指令,它在处理复杂逻辑(如:先分析源码,再生成文档,最后调用 API)时会显得力不从心。
write-a-skill 提倡的架构逻辑是分层执行。它通过 bundled resources(捆绑资源)将复杂的 Prompt 拆解为多个小的、可复用的模块。
// 一个标准 Skill 的目录结构(由 write-a-skill 自动生成)
my-new-skill/
├── prompt.md # 核心指令逻辑
├── metadata.json # 技能定义与依赖项
├── resources/ # 辅助上下文(如:代码模板、参考范式)
└── schema.json # 输入输出的结构化约束
这种结构的精妙之处在于:AI 只有在需要用到特定资源时,才会去“加载”它。这极大地减轻了 AI 的上下文负担,使其能够专注于当前的原子任务。
深度剖析:write-a-skill 的资源捆绑与分发机制
在 skills 的源码中,一个技能被视为一个独立的微服务单元。
| 组成部分 | 官方设计意图 | 实际工程收益 |
|---|---|---|
| Progressive Disclosure | 只有当用户触发特定逻辑分支时,才披露后续指令 | 节省 Token,防止 AI 被过载信息干扰 |
| Bundled Resources | 将最佳实践(Best Practices)打包在技能内 | 确保 AI 生成的结果符合预设的工程质量规范 |
| Atomic Commands | 将技能拆分为多个子命令 | 便于进行单元测试和逻辑排错 |
当你执行 npx skills@latest add .../write-a-skill 时,它会引导你通过一系列交互式提问,自动生成符合这套架构的脚手架代码。
手动复刻“工程级技能”的各种坑
如果你尝试脱离这套框架,手动去编写和部署一个复杂的 Agent Skill,你通常会遇到以下难题:
- 路径地狱:你的 Prompt 引用了本地的某个模板文件,但在 AI 执行时,它无法正确找到该文件的相对路径,导致输出结果变成了一堆占位符。
- 版本碎片化:当你修改了技能逻辑,你得手动通知团队里的每一个人去更新他们的 Prompt 文件。没有像
npx skills add这种中心化的分发机制,技能同步简直是灾难。 - 缺乏类型约束:没有
schema.json的约束,AI 输出的 JSON 格式可能千奇百怪,导致你后续的自动化脚本(如自动提 Issue)频繁解析失败。
这种“手工作坊式”的技能开发,很难支撑起企业级的 AI 辅助流转。
让你的 AI 技能实现“工业化生产”
不要再用文本编辑器一行行磨 Prompt 了。你需要的是一套成熟的工程模板,让你的 AI 技能从出厂那一刻起就具备极高的鲁棒性。
为了帮你彻底掌握这套“技能开发艺术”,我已经在 GitCode 发布了 《Agent Skills:write-a-skill 架构解析与自定义模板包》。这份资料详细拆解了如何利用 progressive disclosure 构建能够处理复杂业务逻辑的技能,并附带了几个现成的工业级 Skill 源码供你参考。访问 GitCode,注册开发者账号,领取这套技能开发模板,开始构建你自己的 AI 武器库。
[注册 GitCode 即可获取作者同款 Skill 开发模板,助你打造“听话”的 AI 助手。]
atomcodeClaude Code 的开源替代方案。连接任意大模型,编辑代码,运行命令,自动验证 — 全自动执行。用 Rust 构建,极致性能。 | An open-source alternative to Claude Code. Connect any LLM, edit code, run commands, and verify changes — autonomously. Built in Rust for speed. Get StartedRust089- DDeepSeek-V4-ProDeepSeek-V4-Pro(总参数 1.6 万亿,激活 49B)面向复杂推理和高级编程任务,在代码竞赛、数学推理、Agent 工作流等场景表现优异,性能接近国际前沿闭源模型。Python00
MiniMax-M2.7MiniMax-M2.7 是我们首个深度参与自身进化过程的模型。M2.7 具备构建复杂智能体应用框架的能力,能够借助智能体团队、复杂技能以及动态工具搜索,完成高度精细的生产力任务。Python00
GLM-5.1GLM-5.1是智谱迄今最智能的旗舰模型,也是目前全球最强的开源模型。GLM-5.1大大提高了代码能力,在完成长程任务方面提升尤为显著。和此前分钟级交互的模型不同,它能够在一次任务中独立、持续工作超过8小时,期间自主规划、执行、自我进化,最终交付完整的工程级成果。Jinja00
Kimi-K2.6Kimi K2.6 是一款开源的原生多模态智能体模型,在长程编码、编码驱动设计、主动自主执行以及群体任务编排等实用能力方面实现了显著提升。Python00
Hy3-previewHy3 preview 是由腾讯混元团队研发的2950亿参数混合专家(Mixture-of-Experts, MoE)模型,包含210亿激活参数和38亿MTP层参数。Hy3 preview是在我们重构的基础设施上训练的首款模型,也是目前发布的性能最强的模型。该模型在复杂推理、指令遵循、上下文学习、代码生成及智能体任务等方面均实现了显著提升。Python00