一、 开场:我是如何被OpenClaw部署折磨了整整3天的
大家好,我是老金。
这篇文章的诞生,纯属被逼出来的。
事情的起因是这样的:上个月不是写了篇 OpenClaw 的科普文章嘛,评论区一堆人在问”怎么部署”。
我想,这玩意儿不是有手就行吗?官方文档写得挺清楚的,Docker 一键部署嘛。
结果……我花了整整 3 天。
3 天啊,各位。
第一天:本地环境配置,npm install 卡死在 99%,换源、重试、怀疑人生,最后发现是 Node.js 版本不对。
第二天:Docker 容器启动成功,但访问不了 Web UI,翻遍 GitHub Issues 才知道端口映射配置有问题。
第三天:终于跑通了,想接入微信做自动回复,结果触发封号机制,凉了。
那天凌晨 3 点,我坐在电脑前,看着满屏的报错日志,整个人是懵的。
“这玩意儿真的是给普通人用的吗?”
但说实话,熬过这 3 天之后,我只想说:
OpenClaw 部署这事儿,会者不难,难者不会。
今天这篇文章,我把自己踩过的坑、走过的弯路全部整理出来,保证你按图索骥,30 分钟内跑通。
如果你正在被 OpenClaw 部署折磨,这篇文章就是你的救命稻草。
二、 先回答一个关键问题:本地部署还是云端部署?
在开始之前,我想先说清楚一件事:
不是所有人都适合本地部署 OpenClaw。
我见过太多人,一上来就想着”我要本地部署,数据安全”。
结果呢?
- Windows 环境配置 Git、npm 依赖,折腾一下午没跑通
- Mac M 芯片 Docker 镜像兼容性问题,折腾两天
- 本地跑起来后,发现没有公网 IP,微信/飞书回调收不到
- 24 小时开机?电费、网络稳定性都是问题
我的建议是:
- 如果你只是想尝鲜 → 先用云端部署试试,嫌麻烦别折磨自己
- 如果你需要 7×24 小时运行 → 云端是必然选择,别犹豫
- 如果你对数据隐私有执念 → 本地部署 + 内网穿透,也可以
- 如果你没有技术背景 → 腾讯云轻量应用服务器 + 预装镜像,零基础也能跑
我自己最后的选择是:云端部署。
不是向”数据安全”妥协,而是 时间成本也是成本。
我在腾讯云轻量服务器上跑 OpenClaw,99 元/月,24 小时不间断运行,售后有保障——这不比我自己开一台旧电脑划算多了?
三、 云端部署实战:腾讯云轻量服务器方案
经过我的实测,腾讯云轻量应用服务器(Lighthouse)是当前最省心的方案。
为什么?
- 镜像预装,开箱即用,不用手动配环境
- 自带公网 IP,微信/飞书回调无压力
- 99 元/月起,比买一台云服务器划算
- 运维面板自带重启、备份、监控
以下是完整部署步骤,你只需要照着做:
3.1 购买服务器
打开腾讯云轻量应用服务器购买页:
https://cloud.tencent.com/act/pro/lighthouse-moltbot
配置选择:
| 配置项 | 推荐选择 | 说明 |
|---|---|---|
| 地域 | 中国香港 / 美国弗吉尼亚 | 国内地域联网搜索受限 |
| 配置 | 2 核 2G 起 | OpenClaw 最低要求 |
| 镜像 | OpenClaw 官方镜像 | 预装 Node.js、Python、Docker |
| 带宽 | 5 Mbps 起 | 影响浏览器自动化速度 |
下单付款,等待实例创建完成。
3.2 登录并初始化
在腾讯云控制台找到你的实例,点击”登录”。
首次登录需要:
- 设置管理员密码(记住它,后面要用)
- 开放防火墙端口:18789(OpenClaw 默认端口)
- 在服务器终端执行:
openclaw start - 等待约 30 秒初始化
- 执行
openclaw status查看状态 - Git 配置环境变量报错
- npm 依赖树解析卡死
- Docker Desktop 和 WSL 兼容性问题
- PowerShell 和 Bash 脚本语法差异
- 不要用个人微信做自动化,这是红线
- 用企业微信,官方开放 API,相对安全
- 控制调用频率,不要短时间内发送大量消息
- 先在小号上测试,确认没问题再迁移
- 进入 OpenClaw 后台 → 设置 → 模型配置
- 填入 API Key
- 选择模型(如 gpt-4o、claude-3-5-sonnet)
- 保存配置
- 服务器费用(99 元/月起)
- 大模型 API 费用(按量计费)
- 域名费用(如需 https 访问)
- 定时监控(每小时检查一次邮箱)
- 轻量级自动回复
- 不适合:实时对话、浏览器自动化
- 使用强密码 + 二次验证
- 不要在 OpenClaw 中存储敏感信息(密码、密钥)
- 定期检查访问日志
- 开放最小必要端口
- 自动监控竞品价格,异常波动时发消息提醒
- 定时抓取行业新闻,生成每日简报
- 自动回复海外客户咨询(用企业微信)
- 每周自动生成数据分析报告
- 先用云端方案跑起来,别折磨自己
- 跑通第一个自动化任务后,你会上瘾的
- 遇到问题多搜 GitHub Issues,90% 的问题都有答案
在轻量应用服务器控制台,进入实例详情页 → 防火墙 → 添加规则:
端口:18789
协议:TCP
来源:0.0.0.0/0
备注:OpenClaw Web UI
3.3 启动 OpenClaw
腾讯云轻量服务器的 OpenClaw 镜像已经预装好所有依赖,你只需要:
正常情况下,你会看到:
[✓] Gateway: Running on port 18789
[✓] Web UI: Accessible at http://<你的公网IP>:18789
[✓] Worker: Ready
3.4 访问 Web UI
打开浏览器,访问:
http://<你的服务器公网IP>:18789
默认管理员账号:admin
默认管理员密码:admin
⚠️ 登录后请立即修改密码!
进入后台 → 设置 → 修改管理员密码。
四、 本地部署方案:Windows / Mac / Linux
如果你坚持要本地部署,我也能理解(毕竟我也折腾过)。
以下是各系统的避坑指南:
4.1 Windows 用户的忠告
不是我说,Windows 环境下部署 OpenClaw,纯属给自己找不痛快。
你会遇到的问题:
我的建议:
如果你必须用 Windows,先装 WSL2(Windows Subsystem for Linux),然后在 WSL 里装 Ubuntu。
不要问我怎么知道的,问就是重装了 3 次系统。
4.2 macOS 用户相对幸运
Mac 用户最麻烦的是 M 系列芯片(Apple Silicon)的兼容性问题。
解决方案:
# 1. 安装 Rosetta 2(如果还没装)
softwareupdate --install-rosetta
2. 使用 Docker Desktop 的 Apple Silicon 版本
下载地址:https://docs.docker.com/desktop/setup/mac/apple-silicon/
3. 拉取镜像时指定平台
docker pull --platform linux/amd64 openclaw/openclaw:latest
如果是 Intel 芯片的 Mac,当我没说,直接装就行。
4.3 Linux 服务器部署
Linux 是最适合部署 OpenClaw 的环境,没有之一。
以 Ubuntu 22.04 为例:
# 1. 安装 Docker
curl -fsSL https://get.docker.com | sh
sudo usermod -aG docker $USER
2. 安装 OpenClaw CLI
npm install -g openclaw
3. 初始化项目
openclaw init my-agent
cd my-agent
4. 启动服务
openclaw start
就这么简单,5 分钟搞定。
五、 99% 的人都会踩的坑,我帮你避开了
下面这些坑,都是我用时间和头发换来的。
5.1 端口不通?先检查防火墙
症状:本地能访问,远程不能访问;或者突然连不上了。
解决:
# Linux 服务器
sudo ufw status
sudo ufw allow 18789/tcp
腾讯云 / 阿里云
控制台 → 防火墙 → 添加规则 → 18789/tcp
5.2 Docker 容器启动成功,但 Web UI 打不开
症状:docker ps 显示容器运行中,但浏览器访问超时。
解决:检查端口映射是否正确。
# 查看容器端口映射
docker ps
如果发现 0.0.0.0:18789 没有映射到容器的 18787
需要重新启动容器
docker-compose down
docker-compose up -d
5.3 浏览器自动化卡死,CPU 占用 100%
症状:运行浏览器自动化任务时,Chrome 进程僵死,任务中断。
解决:增加资源限制和自动重启。
# 在 docker-compose.yml 中添加
services:
openclaw:
# ...
deploy:
resources:
limits:
cpus: '2'
memory: 4G
restart: unless-stopped
environment:
- MAX_BROWSER_INSTANCES=2
- BROWSER_AUTO_RESTART=true
5.4 微信/飞书接入后被封号
症状:接入个人微信后,没多久账号就被限制登录了。
解决:
我血的教训:第一个微信号就是这么没的,现在还在小黑屋里。
六、 接入大模型:本地还是 API?
OpenClaw 本身不含大模型能力,需要你自己接入。
有两种选择:
6.1 调用云端 API(推荐新手)
支持 OpenAI、Claude、Gemini、国产大模型等。
配置方式:
优点:开箱即用,无需显卡
缺点:花钱,且数据会上传到云端
6.2 本地部署大模型(推荐进阶用户)
使用 Ollama、vLLM 等框架本地运行模型。
我的配置(供参考):
# Ollama 配置
OLLAMA_HOST=http://localhost:11434
OLLAMA_MODEL=qwen3:14b
OpenClaw 配置
model:
provider: ollama
endpoint: http://localhost:11434
model: qwen3:14b
优点:数据本地保存,长期成本低
缺点:需要显卡,首次加载模型耗时
我的选择是 云端 API + 本地 Ollama 备用。
日常工作用 API,周末跑本地模型做实验。
七、 你可能会问的 FAQ
Q1:OpenClaw 免费吗?
OpenClaw 本身开源免费,但你需要:
总体成本:每月 200-500 元(含服务器和 API)。
Q2:能跑在树莓派上吗?
能,但只能跑轻量级任务。
实测树莓派 4B(4G 内存)跑 OpenClaw + Ollama(qwen3:1.5b),响应速度约 5-10 秒/次。
适合场景:
<h3 Q3:需要什么样的显卡?
如果本地跑大模型:
| 模型大小 | 推荐显卡 | 推理速度 |
|---|---|---|
| 7B | RTX 3060 12G / RTX 4060 | ~20 tokens/s |
| 14B | RTX 4080 / A10G | ~15 tokens/s |
| 30B+ | RTX 4090 / A100 | ~10 tokens/s |
Q4:24 小时运行安全吗?
安全建议:
八、 写在最后:我的几点真心话
OpenClaw 这玩意儿,入门门槛不低,但一旦跑起来,价值巨大。
我现在每天用它:
说实话,这些事儿如果让我手动做,每周至少要花 5-10 小时。
现在呢?我只需要花 10 分钟检查一下 AI 的输出有没有问题。
这就是 AI Agent 的价值——不是替代人,而是把人从重复劳动中解放出来。
如果你也想开始”养虾”,我的建议是:
今天的分享就到这里。
如果你在部署过程中遇到什么问题,欢迎在评论区交流——我踩过的坑,不想让你再踩一次。
我是技术老金,我们下期见!
📌 相关文章推荐