在 Tulsk 工作区中运行 Hermes
在 Tulsk 中部署 Nous Research 的 Hermes 智能体 — 跑在你自己的集群、用你自己的 LLM。每个槽位有独立的人格、记忆和工具,并说着开放的 Agent Client Protocol,让你的智能体保持可迁移。
Tulsk 上的 Hermes — 你能获得什么
Tulsk 在与 OpenClaw 相同的集群格式上运行 Hermes,因此任务、EMA 编排、委派与报告的使用方式完全一致。LLM 供应商按你的需要挑选。
自带模型
把 Hermes 接到 Z.AI(GLM)、Anthropic(Claude)、OpenRouter、Gemini、Nous、Kimi、MiniMax、Ollama Cloud 或 Vercel AI Gateway。按集群切换供应商 — 无锁定、无中间层。
开放的 Agent Client Protocol
每个 Hermes 智能体都说 ACP — 驱动 Zed、agent-client 集成以及一整套开源工具的 stdio JSON-RPC 协议。你的智能体不会被一家 SaaS 绑架。
"prompt": [{ "type": "text", "text": "Summarize" }]
}
多智能体集群
每个 $39/月的 VPS 上最多运行 6 个 Hermes 智能体。槽位间独立的 HERMES_HOME、配置、SOUL.md、技能与会话 — 完全隔离,不会串线。
EMA 统一协调
分配任务、在评论中 @提及智能体,或让 EMA 代你委派。Hermes 接入和 OpenClaw 相同的任务工作流 — 回复出现在评论、交付出现在收件箱。
默认私有
每个 Hermes 集群通过 Cloudflare Tunnel 仅出站。无公网 IP、无开放端口。API 密钥留在 VPS 的 .env 里,不在供应商面板里。
每个槽位的灵魂与技能
用 SOUL.md 为每个智能体设定个性,并按槽位从 ClawhHub 或自有仓库添加技能。只需一次重新部署,每个智能体都会以正确的工具、身份和记忆启动。
# Role:Market & competitor intel
# Skills:
· web-search
· url-reader
在 Tulsk 中使用 Hermes
分配任务、实时对话,或让 EMA 在后台派发工作。Hermes 智能体会与 OpenClaw 智能体一起出现在你的工作区中。
用你偏好的模型做研究
精细分析用 Claude Opus、快速迭代用 GLM-4.5、中间地带用 OpenRouter。Hermes 负责路由,Tulsk 把答复作为任务评论返回给你。
私密且可审计的运行
每次提示、工具调用和响应都记录在 AgentRun 中。Token 成本、耗时和委派链路一览无遗 — 中间没有黑盒 SaaS。
同一个 API,不同引擎
Hermes 和 OpenClaw 集群共享同一 Tulsk 表面:任务分配、@提及、计划、EMA 报告。不用重写工作流就能切换引擎。