下面把这 15 个 Skills 逐个介绍一遍,包括怎么装、干什么用。
装之前:两个前置工具
在安装任何 Skill 之前,需要先搞定两个东西:Node.js 和 ClawHub。
Node.js(建议 v18 以上):
安装好后在终端验证版本:
node -v
ClawHub——这是从 OpenClaw 官网安装 Skills 的命令行工具。Node.js 装好之后,用管理员权限打开 PowerShell:
npm i -g clawhub
装完检查一下:
clawhub -v
然后去 ClawHub 官网注册登录,点右上角头像 → Setting,生成一个 Token。把 Token 复制下来,回到终端完成授权配置,之后下载 Skills 就不会被限制了。
如果你觉得命令行麻烦,也可以直接下载 Skill 文件,手动放到这个目录:
C:\Users\你的用户名\.openclaw\workspace\skills
15 个 Skills 详细介绍
1. agent-browser 🌐
基于 Rust 的无头浏览器自动化 CLI,支持 Node.js fallback。让 AI 代理可以通过结构化命令去导航网页、点击按钮、输入内容、截图。
适用场景: 自动化网页交互、提取页面结构化数据、程序化填写表单、网页 UI 测试。
2. automation-workflows 🤖
专门为独立创业者设计的自动化工作流技能。说实话这个定位很精准——它不是给你一个通用的自动化框架,而是从「值不值得自动化」开始帮你思考。
核心功能:
- 自动化审计:识别高价值自动化机会
- 工具选型:Zapier / Make / n8n 对比选择
- 工作流设计:触发 → 条件 → 动作 → 错误处理完整模板
- ROI 计算:判断某个自动化到底值不值得投入
触发场景: 提到「自动化」「节省时间」「减少手动工作」等关键词时自动激活。
3. brave-search 🔍
通过 Brave Search API 做网页搜索和内容提取,轻量级,不需要启动浏览器。
适用场景: 搜索文档或 API 参考、查找事实或实时信息、获取特定 URL 内容。
配置需求: 需要设置 BRAVE_API_KEY 环境变量,去 Brave Search API 官网申请即可。
4. data-analyst 📊
把 AI 代理变成数据分析师——SQL 查询、数据清洗、可视化图表、报告生成,一条龙。
核心功能:
- SQL 查询:支持时间分析、cohort 分析、漏斗分析等常见模板
- 数据清洗:处理缺失值、重复项、异常值
- 电子表格分析:CSV / Excel 处理(基于 Pandas)
- 数据可视化:图表选择指南 + Matplotlib / Seaborn 实现
- 报告生成:标准报告模板 + 自动化脚本
对一人公司来说,这个技能的价值很高,省掉了不少手动跑数据的时间。
5. feishu-doc 📄
从飞书 Wiki、文档、表格和多维表格中读写内容,自动解析 Wiki URL 并转换为 Markdown。
适用场景: 读取、创建、写入飞书文档 / 表格 / 多维表格,处理飞书 Wiki 链接。
配置需求: 需要 FEISHU_APP_ID 和 FEISHU_APP_SECRET 环境变量,就是飞书机器人的 AppID 和密钥。
6. find-skills 🔎
一个「找技能的技能」——当你问 OpenClaw「怎么做 X」的时候,它会帮你搜索有没有现成的 Skill 可以装。
触发场景: 用户问「如何做某件事」、想扩展代理能力、需要搜索工具或模板时。
7. humanizer ✍️
去除 AI 生成文本的痕迹,让文字读起来更像人写的。基于维基百科的「AI 写作迹象」指南,能识别并修复 20+ 种 AI 写作模式——过度强调重要性、肤浅的分析、促销语言等等。
对做内容的人来说,这个确实实用。
8. obsidian 💎
处理 Obsidian vault(纯 Markdown 笔记),通过 obsidian-cli 实现自动化操作。
适用场景: 管理 Obsidian 笔记的搜索、创建、移动、重命名。
9. playwright-scraper 🕷️
高性能隐蔽爬虫,使用 Playwright Extra 和 Stealth 插件绕过反爬措施。这个就是前面爬微博热搜用到的那个技能。
核心功能:
- 隐身模式:模拟真实浏览器行为
- 完整 JavaScript 执行支持
- 自定义视口和 User-Agent 伪造
适用场景: 爬取有反爬措施的网站、处理 SPA / React 等动态内容。
10. proactive-agent 🦞
这个设计思路挺有意思——把 AI 代理从「你说我做」的执行者变成主动伙伴,让它学会预测需求。
核心功能:
- WAL 协议:先写关键细节再响应,防止上下文丢失
- 工作缓冲区:上下文超过 60% 时自动记录所有交互
- 主动检查:监控重要事项,需要时主动通知
- 自我修复:尝试 10 种方法再请求帮助
11. self-improving-agent 📈
让代理记录学习、错误和更正,实现持续改进。
触发场景: 命令执行失败、用户纠正回复、发现更好的处理方法、外部 API 调用失败。
核心功能:
- 自动记录错误和学习到
.learnings/目录 - 定期审核学习内容,推广到永久记忆
- 重复模式检测,主动提出自动化建议
12. skill-vetter 🔒
安全审核工具——在装任何外部来源的技能之前,先让它帮你过一遍。
核心功能:
- 4 步审核流程:来源检查 → 代码审查 → 权限范围评估 → 风险分类
- 20+ 项危险信号检测(数据外发、凭据访问、混淆代码等)
- 生成安全报告,给出安装建议
装第三方 Skill 之前跑一遍这个,心里踏实不少。
13. summarize 🧾
用 summarize CLI 总结各种内容——网页、PDF、图片、音频、YouTube 视频都行。
配置需求: 需要对应模型的 API 密钥(OpenAI / Anthropic / Google 等)。
14. task-status 📣
在聊天中发送长时间运行任务的状态更新。多步操作时定期告诉你进度,任务完成或失败时发通知。
这个看起来不起眼,但跑复杂任务时真的需要——不然你只能干等着不知道它卡在哪。
15. tavily-search 🔍
通过 Tavily API 做 AI 优化的网页搜索,返回的结果更简洁、更适合 AI 代理处理。
配置需求: 需要 TAVILY_API_KEY 环境变量,Tavily 官网可以免费获取。
实际体验和一点感受
前面提到的微博热搜 + 飞书搬运,只用了 playwright-scraper 和 feishu-doc 两个 Skill 的组合。这说明 Skills 之间是可以协作的,组合起来才是真正的威力。
还有一个值得说的细节:这篇文章里 15 个 Skills 的介绍内容,其实是 OpenClaw 装完技能之后自己生成的。我只给了一句提示——「总结一下我给你安装的新技能,要求有功能介绍、触发场景、安装命令、配置需求」——除了前面的安装指导部分,整篇不到 5 分钟就出来了。
对于一人公司来说,这种效率提升是实打实的。不需要每个 Skill 都装,根据自己的工作场景挑几个核心的,先让 OpenClaw 把技能学会,后面用起来就顺手了。数据分析、内容生成、文档搬运、网页爬取——这些日常高频操作,交给装好 Skills 的 OpenClaw 来做,省下来的时间拿去做真正需要人判断的事。