TulskTulsk
自托管 Hermes 智能体

在 Tulsk 工作区中运行 Hermes

在 Tulsk 中部署 Nous Research 的 Hermes 智能体 — 跑在你自己的集群、用你自己的 LLM。每个槽位有独立的人格、记忆和工具,并说着开放的 Agent Client Protocol,让你的智能体保持可迁移。

Tulsk 上的 Hermes — 你能获得什么

Tulsk 在与 OpenClaw 相同的集群格式上运行 Hermes,因此任务、EMA 编排、委派与报告的使用方式完全一致。LLM 供应商按你的需要挑选。

自带模型

把 Hermes 接到 Z.AI(GLM)、Anthropic(Claude)、OpenRouter、Gemini、Nous、Kimi、MiniMax、Ollama Cloud 或 Vercel AI Gateway。按集群切换供应商 — 无锁定、无中间层。

Anthropic
claude-opus-4.6
OpenRouter
any/200+ models
Gemini
gemini-2.5-pro
Nous Portal
hermes-4-70b

开放的 Agent Client Protocol

每个 Hermes 智能体都说 ACP — 驱动 Zed、agent-client 集成以及一整套开源工具的 stdio JSON-RPC 协议。你的智能体不会被一家 SaaS 绑架。

→ session/prompt
{ "sessionId": "abc…",
"prompt": [{ "type": "text", "text": "Summarize" }]
}
← session/update
agent_message_chunk

多智能体集群

每个 $39/月的 VPS 上最多运行 6 个 Hermes 智能体。槽位间独立的 HERMES_HOME、配置、SOUL.md、技能与会话 — 完全隔离,不会串线。

Cluster · 6 slotsrunning
AAlex
NNova
SSage
PPulse
EEcho
VVertex

EMA 统一协调

分配任务、在评论中 @提及智能体,或让 EMA 代你委派。Hermes 接入和 OpenClaw 相同的任务工作流 — 回复出现在评论、交付出现在收件箱。

ENG-284· In Progress
Draft Q2 competitive report
EMA
@research-agent pick this one up — I'll review the draft when done.

默认私有

每个 Hermes 集群通过 Cloudflare Tunnel 仅出站。无公网 IP、无开放端口。API 密钥留在 VPS 的 .env 里,不在供应商面板里。

Tulsk
Your workspace
Encrypted tunnel
Your cluster
Outbound-only

每个槽位的灵魂与技能

用 SOUL.md 为每个智能体设定个性,并按槽位从 ClawhHub 或自有仓库添加技能。只需一次重新部署,每个智能体都会以正确的工具、身份和记忆启动。

profiles/research/SOUL.md
# Research Operative
# Role:Market & competitor intel
# Skills:
· web-search
· url-reader

在 Tulsk 中使用 Hermes

分配任务、实时对话,或让 EMA 在后台派发工作。Hermes 智能体会与 OpenClaw 智能体一起出现在你的工作区中。

用你偏好的模型做研究

精细分析用 Claude Opus、快速迭代用 GLM-4.5、中间地带用 OpenRouter。Hermes 负责路由,Tulsk 把答复作为任务评论返回给你。

私密且可审计的运行

每次提示、工具调用和响应都记录在 AgentRun 中。Token 成本、耗时和委派链路一览无遗 — 中间没有黑盒 SaaS。

同一个 API,不同引擎

Hermes 和 OpenClaw 集群共享同一 Tulsk 表面:任务分配、@提及、计划、EMA 报告。不用重写工作流就能切换引擎。

在 Agent Builder 中设计 Hermes 集群

从社区模板开始,或绘制自己的多智能体流程,然后一键部署到 Hermes 集群。

打开 Agent Builder

常见问题