在安装之前你需要有 nodejs、git。
0、下载程序
nodejs 下载地址:
https://nodejs.org/zh-cn/download
在页面下方点击 Windows 安装程序(.msi)。
git 下载地址:
https://git-scm.cn/install/windows
在页面中点击 Git for Windows/x64 安装包。
1、安装 nodejs 和 git
打开下载的 nodejs 安装程序,进行安装。
打开下载的 Git 安装程序,进行安装。
(安装时注意选项,需要将路径添加到系统环境变量里)
完成后 Win+R 键盘,输入 cmd 并运行。
# 验证 Node.js 版本: node -v # 显示 "v24.14.0". # 验证 npm 版本: npm -v # 显示 "11.9.0". 安装 nrm npm install -g nrm # 查看支持的镜像 nrm ls # 测试镜像连接速度 nrm test # 选择镜像 nrm use taobao
2、安装 OpenClaw
npm install -g openclaw # 验证安装 openclaw --version # 开始配置 openclaw onboard
3、配置 OpenClaw
OpenClaw 入门指南 安全 安全警告 — 请仔细阅读。 OpenClaw 是一个业余项目,仍处于测试阶段。请注意可能存在不完善之处。 默认情况下,OpenClaw 是一个个人助手:仅限于单一可信操作者的使用边界。 如果启用了相关工具,这个机器人可以读取文件并执行操作。 一个不当的提示词可能会诱使它执行不安全的操作。 OpenClaw 默认不提供 hostile 多租户环境的安全边界。 如果多个用户可以向同一个启用了工具的机器人发送消息,他们都将共享该机器人所拥有的 delegated 工具权限。 如果您对安全加固和访问控制不熟悉,请不要运行 OpenClaw。 在启用工具或将 OpenClaw 暴露到互联网之前,请先向有经验的人士寻求帮助。 安全基线配置 使用配对/白名单 + 提及(mention)限制。 对于多用户/共享收件箱:拆分信任边界(使用独立的网关/凭证,最好使用独立的操作系统用户/主机)。 使用沙箱 + 最小权限的工具。 对于共享收件箱:隔离私信会话(设置 session.dmScope: per-channel-peer),并将工具访问权限降至最低。 确保机密信息(如密钥)不在 Agent 可访问的文件系统内。 对于任何配备了工具或接收不可信消息的机器人,都应使用当前可用的最强模型。 定期运行以下命令进行安全检查 openclaw security audit --deep openclaw security audit --fix 必读文档(https://docs.openclaw.ai/gateway/security)
# I understand this is personal-by-default and shared/multi-user use requires lock-down. Continue?
#我了解 OpenClaw 默认为个人使用,若用于共享/多用户场景则必须进行严格的安全锁定。是否继续?
按方向键,选择 Yes。
#Onboarding mode
#上线模式
QuickStart , 快速启动(稍后通过 OpenClaw 配置界面进行详细设置。
Manual 手动模式(配置端口、网络、Tailscale 以及认证选项。)
这里使用 Manual 手动模式。
# What do you want to set up?
# 你要如何使用?
(Local gateway 仅内部使用,Remote gateway 外部使用)
根据需要选择,这里使用 Local gateway 。
# Workspace directory
C:\Users\home\.openclaw\workspace
# 指定工作区目录
删除原目录,填写新目录,如 D:\OpenClaw。
# Model/auth provider
#指定 模型/认证提供商
目前支持的模型有:OpenAI、Anthropic、Chutes、MiniMax、Moonshot AI (Kimi K2.5)、Google、xAI (Grok)、Mistral AI、Volcano Engine、BytePlus、OpenRouter、Kilo Gateway、Qwen、Z.AI、Qianfan、Alibaba Cloud Model Studio、Copilot、Vercel AI Gateway、OpenCode、Xiaomi、Synthetic、Together AI、Hugging Face、Venice AI、LiteLLM、Cloudflare AI Gateway、Custom Provider、Ollama、SGLang、vLLM。
如不设置,选择 Skip for now(跳过)。
我们这里选择 Qwen。(回车后会打开千问登录页面,你可以选择登录或注册)
# Default model
| > Keep current (qwen-portal/coder-model)
| Enter model manually
| qwen-portal/coder-model
| qwen-portal/vision-model
# 设置默认模型
你可以选择当前(Keep current)或手动输入模型(Enter model manually)。
# Gateway port
| 18789
# 指定端口
默认为 18789。
# Gateway bind
# 网关绑定
| > Loopback (127.0.0.1) ——环回地址 (127.0.0.1)
| LAN (0.0.0.0) ——局域网 (0.0.0.0)
| Tailnet (Tailscale IP)——Tailscale 网络 (Tailscale IP)
| Auto (Loopback → LAN)——自动 (环回地址 → 局域网)
| Custom IP——自定义 IP
这里我们使用 Loopback 或者,根据需要选择。
# Gateway auth
# 网关认证方式
| > Token (Recommended default (local + remote))——令牌(推荐默认设置(本地 + 远程)
| Password——密码
这里我们使用 Token(令牌)。
# Tailscale exposure
| > Off (No Tailscale exposure)——仅限本机
| Serve——Tailscale 私有网络
| Funnel——公开互联网
# 远程管理方式
这里使用 Off。
# How do you want to provide the gateway token?
| > Generate/store plaintext token (Default)——生成/存储明文令牌(默认设置)
| Use SecretRef——使用 SecretRef
#如何提供网关令牌?
这里使用明文令牌。
# Gateway token (blank to generate)
| Needed for multi-machine or non-loopback access——用于多台机器访问或非回环访问时所需
# 生成令牌(为空自动生成)
这里直接回车。
# Channel status
# 通道状态
# Configure chat channels now?
# 现在配置聊天通道?
这里选择 Yes。
并选择 Feishu/Lark (飞书)。
# Install Feishu plugin?
| Download from npm (@openclaw/feishu)——重新下载
| > Use local plugin path (….\npm\node_modules\openclaw\extensions\feishu)——使用本地
| Skip for now——跳过
# 安装 Feishu 插件?
这里使用使用本地插件。
飞书安装参见:OpenClaw 接入飞书
其他选项不再赘述。
4、启动
最后以管理员方式运行 cmd,输入命令:
# 安装网关 openclaw gateway install # 启动网关 openclaw gateway start
在浏览器中输入:http://127.0.0.1:18789/ 进行访问。
获取登录令牌:
打开文件资源管理器,在地址栏输入
%userprofile%\.openclaw\并回车。找到名为
openclaw.json的文件,用记事本打开。在文件中搜索 gateway ,其下的 token 就是你的令牌