经验分享:使用WPS灵犀Claw官方内置还是Claude官方的skill-creator技能?

快乐小子新
快乐小子新 Lv.2 潜力创作者

Lv.2潜力创作者

对灵犀 Claw 用户(技能使用者)的建议

1 是否应该下载 Claude 官方的 skill-creator 技能?

灵犀内置的 skill_creator 已经覆盖了技能创建的核心流程(需求理解 → 骨架生成 → 编写 → 打包 → 迭代),对于日常的技能制作需求完全够用。Claude 官方版的核心增量在于评估体系(eval/test/benchmark),而这部分依赖子代理和 claude -p CLI,在灵犀环境中无法直接运行

但以下情况值得考虑安装:

  • 你同时使用 Claude Code 和灵犀 Claw,希望两边的技能开发体验保持一致

  • 你想深入学习 Anthropic 官方的技能设计理念(尤其是评估驱动迭代的工程方法)

  • 你正在开发高质量、面向社区分发的技能,需要更严格的质量保障框架

2 如何安装 Claude 官方 skill-creator 并适配灵犀 Claw

安装方式有两种,推荐方式一:

方式一:通过灵犀对话直接安装

在灵犀 Claw 的聊天窗口中发送以下指令:

帮我从 GitHub 仓库 anthropics/skillsskills/skill-creator 目录下载完整的 skill-creator 技能,安装到我的技能目录中。下载后请保留原始目录名 skill-creator(使用连字符),不要与内置的 skill_creator(下划线)冲突。

灵犀会自动完成下载和部署。如果灵犀提示与内置技能冲突,你可以要求它安装到子目录(如 skill-creator-official)以避免覆盖内置版本。

方式二:手动下载安装

  1. 访问 anthropics/skills 仓库,进入 skills/skill-creator/ 目录

  1. 点击 "Code" → "Download ZIP",下载整个仓库后解压,提取其中的 skills/skill-creator/ 文件夹

  1. 通过灵犀 Claw 的技能界面上传 ZIP 技能包功能,将提取的 skill-creator 文件夹打包为 ZIP 后上传

  1. 或直接将文件夹复制到灵犀技能目录下

安装后的适配要点

安装完成后,需要在灵犀环境中做以下适配,否则原版的很多功能无法正常使用:

适配项

说明

必要性

重命名避免冲突

将下载的目录重命名为 skill-creator-official(或其他与内置 skill_creator 不冲突的名称),否则灵犀可能混淆两个版本

必须

忽略 eval 相关指令

原版 SKILL.md 中约 60% 的内容(测试用例、基线对比、子代理执行、benchmark 聚合、eval-viewer 可视化)依赖 Claude Code 的子代理系统和 claude -p CLI,灵犀环境中无法执行。阅读时跳过 "Running and evaluating test cases" 和 "Description Optimization" 两个章节即可

必须

跳过平台特定章节

原版末尾的 "Claude.ai-specific instructions" 和 "Cowork-Specific Instructions" 两个章节与灵犀无关,可直接忽略

建议

提取可复用的设计理念

重点阅读以下章节,将其中的方法论转化为灵犀的实践:"Skill Writing Guide"(编写指导)、"Progressive Disclosure"(渐进式披露)、"Improving the skill" 中的四条改进原则(泛化反馈、保持精简、解释 why、识别重复代码)

强烈建议

直接运行 quick_validate.py

两个版本都有此脚本,可以直接用于校验技能结构。如果 Python 环境可用,这是原版中最具即用价值的工具

可选

3 两个版本的使用场景选择

使用灵犀内置 skill_creator 的场景

  • 日常技能创建:从零搭建一个新技能,需要脚手架生成目录骨架和模板

  • 技能结构校验:使用 quick_validate.py 检查技能是否符合规范

  • 技能打包分发:使用 package_skill.py 将技能打包为 .skill 文件

  • 快速迭代:在日常使用中发现技能的问题,直接修改 SKILL.md 并重新测试

  • 中文环境下的协作:与不熟悉英文的团队成员共享技能开发方法

使用 Claude 官方 skill-creator 的场景

  • 设计阶段参考:在决定技能的整体架构(渐进式披露策略、资源目录组织方式、SKILL.md 章节编排)时,参考原版的设计理念和模式

  • Description 精调:当技能的触发精度不理想时,参考原版 "Description Optimization" 章节中关于 "pushy" 策略、触发测试集设计的指导,手动优化 description(不使用自动优化脚本,但方法论可借鉴)

  • 质量标准对标:当你希望技能质量达到 Claude Code 生态的发布标准时,参考原版的评估框架(测试用例设计、断言编写、基线对比思路),在灵犀环境中以简化版本手动执行

  • 跨平台技能开发:同一个技能需要同时在 Claude Code 和灵犀 Claw 中使用,需要确保设计符合两个平台的要求

  • 学习技能工程方法论:系统学习 Anthropic 官方关于"如何为 AI Agent 编写高质量指令"的完整方法论,包括写作风格指导("解释 why 而非强制 MUST")、安全约束("Principle of Lack of Surprise")、改进原则("泛化而非过拟合")

两个版本的协作使用方式

最佳实践是两者配合使用

  1. 用灵犀内置版执行创建流程(init_skill.py 生成骨架 → 编写 SKILL.md → package_skill.py 打包)

  1. 用 Claude 官方版指导设计决策(阅读 Skill Writing Guide、Progressive Disclosure 等章节,将方法论应用到实际编写中)

  1. 借鉴官方版的 eval 理念,在灵犀中手动执行简化版评估(写 3 个测试 prompt → 逐个运行 → 记录结果 → 根据反馈修改)

这种"灵犀执行 + 官方指导"的组合,既利用了灵犀版对本地环境的深度适配和中文友好性,又吸收了原版在工程质量和方法论上的深厚积累。

4 不要只"创建",要"创建 + 验证"

问题:大多数用户创建技能的流程是:写 SKILL.md → 试一次 → 能用就完事。这相当于软件开发中"写完代码不跑测试就上线"。

建议:养成"创建即测试"的习惯。即使灵犀没有内置 eval 系统,你也可以手动执行以下最小化验证流程:

  1. 写 3 个测试 prompt:一个典型场景、一个边界场景、一个容易出错的场景。不用很正式,写下来就行。

  1. 逐个执行并记录结果:在新会话中(避免上下文污染)分别输入这 3 个 prompt,看技能是否被正确触发、输出是否符合预期。

  1. 记下问题,修改后再测:把每次迭代中发现的问题和修复记录在一个简单的 Markdown 文件中,这比纯靠记忆可靠得多。

5 重视 description 的编写质量

问题:很多用户把 description 写得过于简短或模糊,比如"帮我处理 PDF"。这会导致灵犀在该触发时不触发(欠触发),或者在不该触发时误触发。

建议

  • 采用"功能 + 场景 + 关键词"三层结构写 description。例如:

创建、编辑和审查 Word 文档(.docx)。当用户要求生成文档、修改 Word 文件、添加评论、处理修订模式,或提到"写个文档""做个报告""改一下这个 docx"时触发。也适用于需要保持格式保真的文档转换场景。
  • 适度"pushy":灵犀的模型同样存在欠触发倾向。不要只写技能"做什么",还要明确列出"哪些场景即使没直接提到技能名也应该触发"。

  • 避免过触发:description 中不要堆砌无关关键词。如果技能只处理 PDF,不要把"文档""文件""报告"都写进去——否则用户说"帮我打开这个 Excel 文件"时也可能误触发。

  • 定期复盘:在使用过程中,记录那些"本该触发但没触发"和"不该触发但触发了"的案例,定期更新 description。

6 善用 scripts/ 减少上下文消耗

问题:很多用户把所有逻辑都堆在 SKILL.md 里,导致 SKILL.md 膨胀到几百行甚至上千行。这不仅浪费上下文窗口,还会让模型在大量指令中迷失重点。

建议

  • 识别重复性代码:如果你发现同一个 Python 脚本或 Bash 命令在多次使用技能时被反复生成,就应该把它沉淀到 scripts/ 中。例如 PDF 旋转、图片压缩、数据清洗等确定性操作,都适合脚本化。

  • SKILL.md 只写"什么时候用脚本"和"怎么调",不写脚本本身的内容。

  • 大段参考文档放 references/:如果技能需要引用 API 文档、公司规范、行业模板等超过 100 行的内容,放到 references/ 中按需加载,不要塞进 SKILL.md。

7 学会用"基线思维"评估技能效果

问题:用户往往只测试"有技能时效果如何",却不知道"没有技能时效果如何"。可能技能加了等于没加,甚至加了更差。

建议

  • 做简单的 A/B 对比:对于同一个任务,先在不加载技能的干净会话中执行一次,再在加载了技能的会话中执行一次,对比两次的输出质量。

  • 关注边际收益:如果技能带来的改善微乎其微(比如只省了 10 秒钟或输出质量无明显提升),说明技能可能设计过度或方向有误。技能的价值在于解决模型靠自己搞不定的问题,而非锦上添花。

  • 记录 token 消耗:技能加载本身会消耗上下文。如果一个 200 行的 SKILL.md 每次加载占用 2000 tokens,但带来的收益只是省了一次 Google 搜索,那这笔 token 账就不划算。

8 遵循"简洁优先"原则,对 SKILL.md 做减法

问题:用户在迭代技能时,倾向于"加东西"而不是"删东西"——发现一个问题就加一条规则,最后 SKILL.md 变成一堆冗长的 MUST 和 NEVER。

建议

  • 定期做 SKILL.md 的"审计":每隔一段时间,重新审视 SKILL.md 中的每一段内容,问自己:"去掉这段,模型会不会犯错?"如果不会,就删掉。

  • 用"解释 why"替代"强制 MUST":Anthropic 原版特别强调这一点。与其写"必须使用 utf-8 编码",不如写"使用 utf-8 编码,因为中文内容在其他编码下会出现乱码"。模型理解了原因,比死记规则更可靠。

  • 控制总行数:SKILL.md 的正文尽量控制在 200-300 行以内(灵犀的上下文比 Claude Code 更紧张)。超过这个阈值,就应该考虑拆分到 references/scripts/

9 利用已有生态,不要重复造轮子

问题:论坛上可以看到很多用户在做"已经有人做过的技能"——比如多个用户各自独立地做了"PDF 合并"技能,且质量参差不齐。

建议

  • 先搜索,再创建:在决定做一个新技能之前,先在社区、论坛和技能市场中搜索是否已有类似技能。如果有,优先考虑安装现有技能并在此基础上改进,而非从零开始。

  • 如果现有技能不够好,提 issue 或 fork 改进,而不是另起炉灶。这有利于社区积累高质量技能,而不是碎片化地重复建设。

  • 发布你的技能时附带测试用例:哪怕只是 3 个简单的 prompt + 预期输出描述,也能让其他用户快速判断这个技能是否适合自己的场景。

10 为技能建立"使用日志"

问题:技能创建后的迭代主要依赖"感觉不对就改",缺少数据支撑。

建议

  • 在技能目录下维护一个 CHANGELOG.md(虽然原版不建议创建这个文件,但对于个人使用场景,它是实用的迭代记录),每次修改记录:日期、改了什么、为什么改、效果如何。

  • 或者更轻量地,在 SKILL.md 的末尾维护一个 <!-- Changelog --> 注释块,记录最近几次修改。

  • 当积累到 5 次以上修改时,回头审视 Changelog,你可能会发现某些问题反复出现——这通常意味着 SKILL.md 的某个根本性设计需要重构,而非打补丁。

广东省
浏览 98
收藏
5
分享
5 +1
1
+1
全部评论 1
 
wils
wils Lv.2 潜力创作者

Lv.2潜力创作者

非常棒的经验
· 海南省
1
回复