从电脑到手机,AI Agent 的触手又伸长了一截

OpenClaw 解决的问题很明确:让 AI 像人一样操作电脑界面,点击、输入、截图、判断,形成完整的自动化闭环。但手机端一直是个空白地带。安卓系统的权限管理比桌面系统严格得多,传统方案要么需要 ROOT,要么得用 ADB 连电脑调试,门槛不低。

Andclaw 的做法是把这两道门槛全砍掉了。它直接运行在安卓设备上,利用系统的无障碍服务(Accessibility Service)获取界面控制权限,不需要你折腾开发者选项,也不用拿根数据线把手机拴在电脑上。

说白了,就是把 OpenClaw 的思路搬到了手机上,但适配了移动端的权限体系。

这意味着什么

对独立开发者和一人公司来说,这打开了一个新的自动化场景:

  • 手机端重复操作的自动化:批量处理微信消息、自动填写表单、定时截图监控——以前这些要么靠按键精灵,要么靠 Tasker 写一堆规则,现在可以用自然语言描述任务,让 AI Agent 直接执行
  • 移动端测试:如果你在做安卓应用,可以用它来跑自动化测试流程,不用搭复杂的测试框架
  • 跨设备工作流串联:电脑端用 OpenClaw,手机端用 Andclaw,理论上可以构建一套覆盖全设备的 AI 自动化体系

值得注意的地方

项目目前在 GitHub 上有 150 个 Star,27 个 Fork,还处于比较早期的阶段。代码仓库由开发者 andforce 维护,Issue 区暂时是空的,说明社区反馈还没起来,也可能说明使用门槛还比较高。

无障碍服务这条路线虽然免去了 ROOT 的麻烦,但也有天然的局限——它能"看到"和"操作"的界面元素取决于应用本身的无障碍适配程度。有些应用的界面元素标注做得稀烂,AI 能拿到的信息就很有限。

怎么用起来

如果你已经在玩 OpenClaw 或者类似的 Computer Use 方案,Andclaw 值得装上试试。建议从简单的自动化任务开始——比如自动打开某个应用并截图——先摸清它的能力边界,再考虑往复杂工作流里集成。移动端的 AI Agent 还在非常早期,但方向是对的:未来的一人公司,应该是 AI 帮你操作所有设备,而不只是帮你写代码。