OpenClaw 是什么

OpenClaw(前身叫 Clawdbot 和 Moltbot)是一个本地运行的 AI Agent,把多种能力打包成一个助手:对话记忆、行为适应、文件和应用上下文感知、持续后台运行,以及社区贡献的可扩展技能系统。

跟那些云端 Agent 比,OpenClaw 的核心卖点就一个字:本地。模型在你机器上跑,数据在你机器上存,除非你主动接入外部服务,否则什么都不会外泄。

为什么要跑在 DGX Spark 上

DGX Spark 是 NVIDIA 的 Grace Blackwell 架构桌面设备,跑的是 Linux,设计上就是 always-on 的,关键是有 128GB 内存——这意味着你可以跑相当大的本地模型(比如 gpt-oss-120b 这种 65GB 级别的),模型越大,Agent 的准确性和能力上限就越高。

对一人公司来说,这个组合的意义在于:你可以拥有一个 7x24 小时运行的私人 AI Agent,不依赖任何云服务,运行成本就是电费。

装完能干什么

OpenClaw 装好连上本地 LLM(通过 LM Studio 或 Ollama)之后,有几个比较实际的用法:

  • 私人秘书:接入邮箱、日历和文件,帮你管日程、起草回复、发提醒、找会议时间
  • 项目管理助手:通过邮件或消息查项目状态、发进度更新、追踪和催办
  • 研究 Agent:结合网页搜索和本地文件,生成带个人上下文的研究报告
  • 安装助手:搜索应用和库、执行安装、用终端访问调试错误(建议用大模型)

上手门槛

整个安装过程大约 30 分钟,前提条件不算苛刻:

  • DGX Spark 跑 Linux,联网
  • 终端访问(SSH 或本地)
  • 会基本的 Linux 命令行操作
  • 可选:熟悉 Ollama 或 LM Studio

模型下载时间取决于你选的模型大小和网速,大模型可能需要额外等待。

安全这块必须认真对待

这里要泼一盆冷水。AI Agent 能访问你的文件、工具和通信渠道,风险等级是中到高。NVIDIA 自己也不避讳这点,官方给的安全建议相当直白:

  • 强烈建议在专用或隔离的系统上运行,别在你存了敏感数据的主力工作站上搞
  • 给 Agent 用专用账号,只授予最小权限
  • 只启用你信任的技能,尤其是终端和文件系统访问类的技能要格外小心
  • Web UI 和消息通道绝对不要暴露在公网上,远程访问走 SSH 隧道或 VPN
  • 尽可能用防火墙限制 Agent 的互联网访问
  • 定期检查日志和 Agent 执行过的命令

说实话,这些风险不是 OpenClaw 独有的,而是所有本地 AI Agent 的通病。你给它的权限越大,它能帮你做的事越多,但翻车的后果也越严重。

DGX Spark 上还能玩什么

除了 OpenClaw,NVIDIA 的 Playbook 库里还有不少值得关注的玩法:多 Agent 聊天机器人搭建、视频搜索和摘要 Agent、FLUX.1 LoRA 微调、用 NeMo 和 Unsloth 做 Fine-tune、RAG 应用、多模态推理,甚至还有 Vibe Coding(在 VS Code 里用自然语言写代码)。

整个生态的思路很清晰:把推理、训练、Agent 全部拉到本地,用一台桌面设备搞定。

值不值得折腾

如果你是独立开发者或一人公司,日常重度依赖 AI 工具,又对数据隐私有洁癖,DGX Spark + OpenClaw 这个组合确实值得关注。但现实是,DGX Spark 本身价格不菲,对大多数人来说,先在现有设备上用 Ollama 跑个 OpenClaw 试试水,搞清楚自己到底需要什么级别的本地 Agent,比直接下单硬件要聪明得多。