下面把这 15 个 Skills 逐个介绍一遍,包括怎么装、干什么用。

装之前:两个前置工具

在安装任何 Skill 之前,需要先搞定两个东西:Node.js 和 ClawHub。

Node.js(建议 v18 以上):

安装好后在终端验证版本:

node -v

ClawHub——这是从 OpenClaw 官网安装 Skills 的命令行工具。Node.js 装好之后,用管理员权限打开 PowerShell:

npm i -g clawhub

装完检查一下:

clawhub -v

然后去 ClawHub 官网注册登录,点右上角头像 → Setting,生成一个 Token。把 Token 复制下来,回到终端完成授权配置,之后下载 Skills 就不会被限制了。

如果你觉得命令行麻烦,也可以直接下载 Skill 文件,手动放到这个目录:

C:\Users\你的用户名\.openclaw\workspace\skills

15 个 Skills 详细介绍

1. agent-browser 🌐

基于 Rust 的无头浏览器自动化 CLI,支持 Node.js fallback。让 AI 代理可以通过结构化命令去导航网页、点击按钮、输入内容、截图。

适用场景: 自动化网页交互、提取页面结构化数据、程序化填写表单、网页 UI 测试。

2. automation-workflows 🤖

专门为独立创业者设计的自动化工作流技能。说实话这个定位很精准——它不是给你一个通用的自动化框架,而是从「值不值得自动化」开始帮你思考。

核心功能:

  • 自动化审计:识别高价值自动化机会
  • 工具选型:Zapier / Make / n8n 对比选择
  • 工作流设计:触发 → 条件 → 动作 → 错误处理完整模板
  • ROI 计算:判断某个自动化到底值不值得投入

触发场景: 提到「自动化」「节省时间」「减少手动工作」等关键词时自动激活。

3. brave-search 🔍

通过 Brave Search API 做网页搜索和内容提取,轻量级,不需要启动浏览器。

适用场景: 搜索文档或 API 参考、查找事实或实时信息、获取特定 URL 内容。

配置需求: 需要设置 BRAVE_API_KEY 环境变量,去 Brave Search API 官网申请即可。

4. data-analyst 📊

把 AI 代理变成数据分析师——SQL 查询、数据清洗、可视化图表、报告生成,一条龙。

核心功能:

  • SQL 查询:支持时间分析、cohort 分析、漏斗分析等常见模板
  • 数据清洗:处理缺失值、重复项、异常值
  • 电子表格分析:CSV / Excel 处理(基于 Pandas)
  • 数据可视化:图表选择指南 + Matplotlib / Seaborn 实现
  • 报告生成:标准报告模板 + 自动化脚本

对一人公司来说,这个技能的价值很高,省掉了不少手动跑数据的时间。

5. feishu-doc 📄

从飞书 Wiki、文档、表格和多维表格中读写内容,自动解析 Wiki URL 并转换为 Markdown。

适用场景: 读取、创建、写入飞书文档 / 表格 / 多维表格,处理飞书 Wiki 链接。

配置需求: 需要 FEISHU_APP_IDFEISHU_APP_SECRET 环境变量,就是飞书机器人的 AppID 和密钥。

6. find-skills 🔎

一个「找技能的技能」——当你问 OpenClaw「怎么做 X」的时候,它会帮你搜索有没有现成的 Skill 可以装。

触发场景: 用户问「如何做某件事」、想扩展代理能力、需要搜索工具或模板时。

7. humanizer ✍️

去除 AI 生成文本的痕迹,让文字读起来更像人写的。基于维基百科的「AI 写作迹象」指南,能识别并修复 20+ 种 AI 写作模式——过度强调重要性、肤浅的分析、促销语言等等。

对做内容的人来说,这个确实实用。

8. obsidian 💎

处理 Obsidian vault(纯 Markdown 笔记),通过 obsidian-cli 实现自动化操作。

适用场景: 管理 Obsidian 笔记的搜索、创建、移动、重命名。

9. playwright-scraper 🕷️

高性能隐蔽爬虫,使用 Playwright Extra 和 Stealth 插件绕过反爬措施。这个就是前面爬微博热搜用到的那个技能。

核心功能:

  • 隐身模式:模拟真实浏览器行为
  • 完整 JavaScript 执行支持
  • 自定义视口和 User-Agent 伪造

适用场景: 爬取有反爬措施的网站、处理 SPA / React 等动态内容。

10. proactive-agent 🦞

这个设计思路挺有意思——把 AI 代理从「你说我做」的执行者变成主动伙伴,让它学会预测需求。

核心功能:

  • WAL 协议:先写关键细节再响应,防止上下文丢失
  • 工作缓冲区:上下文超过 60% 时自动记录所有交互
  • 主动检查:监控重要事项,需要时主动通知
  • 自我修复:尝试 10 种方法再请求帮助

11. self-improving-agent 📈

让代理记录学习、错误和更正,实现持续改进。

触发场景: 命令执行失败、用户纠正回复、发现更好的处理方法、外部 API 调用失败。

核心功能:

  • 自动记录错误和学习到 .learnings/ 目录
  • 定期审核学习内容,推广到永久记忆
  • 重复模式检测,主动提出自动化建议

12. skill-vetter 🔒

安全审核工具——在装任何外部来源的技能之前,先让它帮你过一遍。

核心功能:

  • 4 步审核流程:来源检查 → 代码审查 → 权限范围评估 → 风险分类
  • 20+ 项危险信号检测(数据外发、凭据访问、混淆代码等)
  • 生成安全报告,给出安装建议

装第三方 Skill 之前跑一遍这个,心里踏实不少。

13. summarize 🧾

用 summarize CLI 总结各种内容——网页、PDF、图片、音频、YouTube 视频都行。

配置需求: 需要对应模型的 API 密钥(OpenAI / Anthropic / Google 等)。

14. task-status 📣

在聊天中发送长时间运行任务的状态更新。多步操作时定期告诉你进度,任务完成或失败时发通知。

这个看起来不起眼,但跑复杂任务时真的需要——不然你只能干等着不知道它卡在哪。

15. tavily-search 🔍

通过 Tavily API 做 AI 优化的网页搜索,返回的结果更简洁、更适合 AI 代理处理。

配置需求: 需要 TAVILY_API_KEY 环境变量,Tavily 官网可以免费获取。

实际体验和一点感受

前面提到的微博热搜 + 飞书搬运,只用了 playwright-scraper 和 feishu-doc 两个 Skill 的组合。这说明 Skills 之间是可以协作的,组合起来才是真正的威力。

还有一个值得说的细节:这篇文章里 15 个 Skills 的介绍内容,其实是 OpenClaw 装完技能之后自己生成的。我只给了一句提示——「总结一下我给你安装的新技能,要求有功能介绍、触发场景、安装命令、配置需求」——除了前面的安装指导部分,整篇不到 5 分钟就出来了。

对于一人公司来说,这种效率提升是实打实的。不需要每个 Skill 都装,根据自己的工作场景挑几个核心的,先让 OpenClaw 把技能学会,后面用起来就顺手了。数据分析、内容生成、文档搬运、网页爬取——这些日常高频操作,交给装好 Skills 的 OpenClaw 来做,省下来的时间拿去做真正需要人判断的事。