
下载 NapCat:前往 GitHub 或 Gitee 下载适用于 QQ NT 版本的 NapCat 机器人框架。
配置并启动 QQ:解压 NapCat 后,运行启动脚本(如 launcher.bat),自动拉起QQ客户端,登录机器人专用QQ账号(建议使用小号)。
获取连接信息:启动成功后,从 NapCat 输出日志中,记录 WebSocket 端口(通常为6099或6199)和 Access Token(如有设置)。
安装与启动:确保已安装 OpenClaw CLI 工具,运行openclaw gateway start 或 clawdbot gateway start 启动核心服务。
进入配置面板:打开浏览器访问 http://127.0.0.1:18789(默认端口),进入 OpenClaw 控制台。
配置连接器:在控制台找到“Connectors”或“Channels”设置,选择“OneBot”或“QQ”作为连接类型,填入 NapCat 的 WebSocket 地址(格式:ws://127.0.0.1:6099/ws,需根据实际端口修改)和 Access Token(如有)。
保存并重启:保存配置后,OpenClaw 将自动尝试连接 NapCat。
检查状态:在 OpenClaw 控制台日志中,若出现“OneBot connected”或类似字样,说明连接成功。
发送指令:打开QQ,向机器人账号发送任意消息(如“/start”或“你好”),若 OpenClaw 日志中出现该消息内容,即表明消息通道已打通,可正常使用。
端口冲突:确保 NapCat 的 WebSocket 端口(如6099)与 OpenClaw 的默认端口(18789)未被其他程序占用。
防火墙设置:远程服务器部署时,需配置防火墙允许 WebSocket 端口通信。
插件安装:若 OpenClaw 配置面板中无QQ选项,需通过 CLI 安装社区插件,命令为 openclaw plugins install @m1heng-clawd/qq。
风控警告:QQ对机器人检测较严格,频繁发消息或登录环境异常可能导致账号受限,建议开启“无头模式”并使用稳定网络环境。
替代方案:若配置复杂,可使用 AstrBot 或 NoneBot2 作为中间层(对QQ支持更成熟),再通过API与 OpenClaw 交互。
CPU:2核
内存:2GB
系统盘:40GB以上
带宽:1Mbps起步
系统:Ubuntu 22.04或更高版本
说明:可运行 OpenClaw 核心服务并连接云端大模型(如Claude、GPT、通义千问等),但内存紧张,易因内存不足(OOM)导致服务崩溃,不适合运行本地大模型。
CPU:2核或4核
内存:4GB或8GB
说明:更大内存可为AI的思维链和上下文提供充足缓存空间,显著提升响应速度和多轮对话稳定性;若计划接入国产大模型API(通常按token计费),此配置性价比极高。
CPU:4核以上
内存:16GB或32GB以上
GPU:NVIDIA显卡,显存6GB以上(如RTX 3060/4090)
说明:适合希望完全在本地运行大模型(如Llama 3、Qwen本地版)、追求极致数据隐私的用户,硬件要求较高,内存和显存需能容纳模型权重。
Mac mini / PC:建议使用 Apple Silicon 芯片的 Mac mini 或配备独立显卡的高性能 Windows PC,保障运行流畅度。
树莓派:理论上可行,但性能有限,仅适合学习和测试,无法获得良好的对话体验。
内存是关键:OpenClaw 运行时会加载大量上下文和依赖,2GB内存是“勉强能跑”的底线,强烈建议选择4GB及以上内存,或通过增加Swap交换空间避免服务频繁崩溃。
地域与网络:
主要使用Claude、GPT等国际模型时,服务器建议选择香港或海外节点,确保网络连接稳定。
使用通义千问、DeepSeek等国内模型时,选择国内服务器即可,同时需注意合规性。
端口开放:无论哪种部署方式,均需确保服务器防火墙或本地路由器放行18789端口,该端口是 OpenClaw Web 控制台(Dashboard)的默认访问端口。
购买并配置服务器:
选购镜像:登录阿里云(或腾讯云、百度智能云等)控制台,找到轻量应用服务器,在镜像市场中搜索并选择“OpenClaw”(早期镜像可能显示为Moltbot/Clawdbot,内容已更新)。
配置规格:建议选择2核CPU、2GB内存及以上套餐,1核1G易因内存不足导致崩溃。
完成购买:支付后,服务器会自动初始化并预装 OpenClaw 环境。
获取大模型API(大脑): OpenClaw 本身仅为框架,需连接大模型才能实现思考功能,步骤如下:
注册平台:前往阿里云百炼(或DeepSeek、OpenAI等偏好的模型平台)注册账号。
创建密钥:在平台“密钥管理”页面创建API-Key。
记录信息:复制保存API-Key,以及模型的base_url和model_id(如通义千问的qwen-plus)。
配置与启动服务:
放行端口:在服务器控制台的“防火墙”或“安全组”中,放行18789端口。
配置密钥:部分云平台提供“一键配置”功能,直接输入API-Key即可;若无此功能,需通过SSH连接服务器,编辑配置文件(通常在~/.clawdbot/clawdbot.json或通过环境变量)填入API-Key。
启动服务:在终端执行启动命令(如clawdbot gateway start),或在云平台控制台直接启动。
访问与连接IM:
访问面板:通过浏览器访问http://你的服务器IP:18789,进入 OpenClaw 控制台。
生成Token:在控制台生成访问Token,用于后续连接IM工具。
环境准备:确保系统安装Node.js 22或更高版本,通过命令node -v检查版本是否符合要求。
一键安装:
Mac/Linux:打开终端,粘贴并运行官方安装脚本(具体脚本参考官方最新文档,通常为curl -fsSL https://clawd.bot/install.sh | bash)。
Windows:使用PowerShell运行安装命令。
初始化配置:
安装完成后,系统会引导进行配置,选择“QuickStart”模式。
跳过模型配置,后续手动填入国内模型API更稳定。
选择“Memory”开启记忆功能。
接入国产模型(可选):国内用户使用GPT/Claude可能不稳定,可通过命令行接入DeepSeek、千问等国产模型,例如openclaw config set 'models.providers.deepseek' --json '{...}'(具体参数参考模型官方文档)。
操作:在阿里云轻量应用服务器购买页面,选择“应用镜像”中的OpenClaw,系统会自动完成环境配置。
成本:最低配置(2核2G)成本较低,可满足新手初期体验需求。
国际巨头:
OpenAI:GPT-4o、GPT-4o mini、o1等系列。
Anthropic:Claude 3.7 Sonnet(2026年3月已停用,建议使用更新版本)、Claude Opus 4.5、Claude Haiku等。
Google:Gemini 3 Pro、Gemini 3 Flash等。
国产大模型(国内访问更稳定):
阿里巴巴:通义千问(Qwen)系列(如qwen-plus、qwen-max)。
百度:文心一言(ERNIE)系列。
DeepSeek:DeepSeek系列模型(性价比高,近期热度较高)。
月之暗面:Kimi(Moonshot)系列(如Kimi K2.5,OpenClaw官方宣布的免费主力模型之一)。
其他:MiniMax等。
Meta:Llama 3 / Llama 4系列(如Llama-3.1-405B、Llama-4-Maverick)。
Mistral / Mixtral系列。
Gemma系列。
其他开源模型:只要支持标准OpenAI API协议或兼容协议(如vLLM、Ollama)的开源模型,OpenClaw通常均可接入。
找到配置文件:在服务器终端中,使用编辑器打开配置文件,命令为nano ~/.clawdbot/clawdbot.json。
定义多个模型提供商(Providers):在models.providers字段下,添加多个模型服务商,示例如下(同时添加阿里云百炼和DeepSeek): { "models": { "providers": { "bailian": { "baseUrl": "https://dashscope.aliyuncs.com/compatible-mode/v1", "apiKey": "YOUR_DASHSCOPE_KEY", "api": "openai-completions", "models": [ { "id": "qwen-plus", "name": "通义千问 Plus" }, { "id": "qwen-max", "name": "通义千问 Max" } ] }, "deepseek": { "baseUrl": "https://api.deepseek.com/v1", "apiKey": "YOUR_DEEPSEEK_KEY", "api": "openai-completions", "models": [ { "id": "deepseek-chat", "name": "DeepSeek Chat" } ] } } } }
设置默认模型:在agents.defaults.model中设置默认使用的模型,格式为provider/model_id,示例如下: { "agents": { "defaults": { "model": { "primary": "bailian/qwen-plus" } } } }
(进阶)配置自动路由规则:可根据指令内容、消息长度等条件,让OpenClaw自动选择模型,示例如下: { "agent": { "modelRouting": { "rules": [ { "condition": { "contentContains": ["代码", "编程"] }, "model": "anthropic/claude-opus-4-5" }, { "condition": { "messageLength": { "max": 50 } }, "model": "bailian/qwen-plus" } ] } } }
启动配置向导:在终端输入命令clawdbot onboard。
选择配置模式:按提示选择“Advanced”(高级模式)或跳过默认模型配置。
添加模型:向导询问使用哪个模型时,可选择列表中已有的模型,或选择“自定义”并填入API Key。
设置默认模型:向导最后会询问默认使用的模型,从列表中选择即可完成配置。
阿里云百炼(Qwen):登录阿里云控制台 → 百炼 → 模型服务 → API Key 管理。
DeepSeek:登录DeepSeek官网 → API Key 管理。
OpenAI / Anthropic:登录对应官网,在个人中心获取API Key。
重启服务:在终端执行命令clawdbot gateway restart。
查看模型列表:运行命令clawdbot models list,若配置的模型名称出现在列表中,说明配置成功。
API Key安全:API Key是调用模型的关键,请勿泄露给他人,避免产生不必要的费用或信息泄露。
费用说明:除部分免费模型(如Kimi K2.5的免费额度)或开源模型外,调用GPT-4o、Claude Opus等高级模型通常会产生费用,需注意控制使用量。