一行命令安装,零依赖
最吸引我的是它的安装方式——不需要 Node.js、不需要 pnpm、不需要 git,直接下载预编译的二进制文件:
curl -fsSL https://agents.hyper.space/cli | bash
装完之后还有个 clawhub 的包管理器可以用:
clawhub install hyperspace
目前支持三个平台:
- Linux x86_64
- macOS ARM64(Apple Silicon)
- macOS x86_64
它到底干了什么
我翻了一下它的安装脚本,逻辑还挺清晰的。核心流程大概是这样:
- 检测系统和架构,匹配对应的预编译包
- 检测是否有桌面环境——有的话会装一个系统托盘应用,带自动更新和崩溃恢复
- 检测 GPU(支持 NVIDIA、AMD ROCm、Apple Silicon 统一内存),没 GPU 也能跑,但只能作为中继节点
- 如果检测到老版本(v1),会自动迁移密钥
- 二进制装到
~/.local/bin/,同时保留aios-cli和hyperspace两个命令名 - 内置了 CRDT 引擎(loro-crdt)和 SQLite,看起来是做本地状态同步用的
安装脚本还支持几个实用参数:
--no-start:装完不自动启动--no-tray:跳过托盘应用(适合服务器)--sudo:安装到/usr/local/bin--key <KEY>:导入已有的 Ed25519 私钥--api-port N:指定 OpenAI API 兼容端口,默认 8080
有意思的细节
我注意到它装完会暴露一个 OpenAI API 兼容的本地端口(默认 8080)。这意味着你可以把它当成一个本地的 AI 推理后端,用标准的 OpenAI SDK 去调用。对于独立开发者来说,这其实是个挺有吸引力的点——不用自己搭推理服务,接入这个网络就行。
另一个细节是它用 Ed25519 做节点身份认证,密钥可以通过环境变量 HYPERSPACE_PRIVATE_KEY 传入,部署到服务器上比较方便。
适合什么场景
说实话,我也不确定这个项目目前的网络规模和稳定性怎么样。但从架构设计来看,它想解决的问题很明确:让 AI Agent 有一个去中心化的算力层可以依赖。
如果你手头有闲置的 GPU 机器,或者想低成本搭一个 AI 推理后端给自己的项目用,可以试试看。至少安装成本极低,不行就卸了。项目叫 hyperspace-node,在 GitHub 的 hyperspaceai 组织下能找到。