一行命令安装,零依赖

最吸引我的是它的安装方式——不需要 Node.js、不需要 pnpm、不需要 git,直接下载预编译的二进制文件:

curl -fsSL https://agents.hyper.space/cli | bash

装完之后还有个 clawhub 的包管理器可以用:

clawhub install hyperspace

目前支持三个平台:

  • Linux x86_64
  • macOS ARM64(Apple Silicon)
  • macOS x86_64

它到底干了什么

我翻了一下它的安装脚本,逻辑还挺清晰的。核心流程大概是这样:

  1. 检测系统和架构,匹配对应的预编译包
  2. 检测是否有桌面环境——有的话会装一个系统托盘应用,带自动更新和崩溃恢复
  3. 检测 GPU(支持 NVIDIA、AMD ROCm、Apple Silicon 统一内存),没 GPU 也能跑,但只能作为中继节点
  4. 如果检测到老版本(v1),会自动迁移密钥
  5. 二进制装到 ~/.local/bin/,同时保留 aios-clihyperspace 两个命令名
  6. 内置了 CRDT 引擎(loro-crdt)和 SQLite,看起来是做本地状态同步用的

安装脚本还支持几个实用参数:

  • --no-start:装完不自动启动
  • --no-tray:跳过托盘应用(适合服务器)
  • --sudo:安装到 /usr/local/bin
  • --key <KEY>:导入已有的 Ed25519 私钥
  • --api-port N:指定 OpenAI API 兼容端口,默认 8080

有意思的细节

我注意到它装完会暴露一个 OpenAI API 兼容的本地端口(默认 8080)。这意味着你可以把它当成一个本地的 AI 推理后端,用标准的 OpenAI SDK 去调用。对于独立开发者来说,这其实是个挺有吸引力的点——不用自己搭推理服务,接入这个网络就行。

另一个细节是它用 Ed25519 做节点身份认证,密钥可以通过环境变量 HYPERSPACE_PRIVATE_KEY 传入,部署到服务器上比较方便。

适合什么场景

说实话,我也不确定这个项目目前的网络规模和稳定性怎么样。但从架构设计来看,它想解决的问题很明确:让 AI Agent 有一个去中心化的算力层可以依赖。

如果你手头有闲置的 GPU 机器,或者想低成本搭一个 AI 推理后端给自己的项目用,可以试试看。至少安装成本极低,不行就卸了。项目叫 hyperspace-node,在 GitHub 的 hyperspaceai 组织下能找到。