浏览量:

OpenClaw 完整使用指南

什么是Openclaw、Clawbot、Moltbot?它们和四大IM APP有什么关系?


一、OpenClaw 名称说明

OpenClaw 是当前这款开源AI助手工具的正式名称,其前身曾先后被称为 Clawdbot 和 Moltbot。三者本质上是同一款AI助手项目,仅因短时间内为规避商标纠纷,经历了两次品牌更名。由于更名周期较短,目前用户群体中仍会出现各类旧称,均指代同一产品。该项目最终于2025年1月正式定名为 OpenClaw。

1.1 核心功能

OpenClaw 是一款可部署在用户本地环境(如个人电脑、服务器)的高权限AI智能体,核心功能包括:理解自然语言指令,通过执行脚本、操作文件、控制浏览器等方式完成各类任务;具备持久化记忆功能,可长期留存交互信息;支持连接多种大型语言模型(如Claude、GPT、通义千问等)作为其“大脑”,灵活适配不同使用需求。

二、OpenClaw 与 IM APP 的关系

OpenClaw 的核心设计理念之一是“多平台支持”,它能够与多种即时通讯(IM)工具集成,让用户可通过常用聊天软件远程控制和交互AI助手,大幅提升工作流效率。

2.1 什么是 IM APP

IM 是 Instant Messaging(即时通讯)的缩写,IM APP 即通过互联网实现实时发送文字、语音、视频和文件的手机应用或电脑软件,与电子邮件的非实时交流形成区别。常见的 IM APP 分为两类:个人社交类(微信、QQ、WhatsApp、Telegram、LINE等);工作办公类(钉钉、企业微信、飞书、Microsoft Teams等)。其核心功能包括实时聊天、音视频通话、群组功能、在线状态显示等。

2.2 集成方式与支持的 IM APP

OpenClaw 支持通过插件或API接入多种主流IM工具,其中在中文语境下,“四大IM APP”通常指企业微信、钉钉、飞书和QQ,OpenClaw 已提供对这四大国内主流IM应用的接入支持,方便中国用户使用。

2.3 应用场景

集成IM APP后,用户可实现灵活便捷的远程操作,例如外出时,通过手机上的IM应用向OpenClaw发出指令,让其在办公室的电脑上自动打开邮件、整理文件、查询数据或执行其他自动化任务,无需现场操作设备。

2.4 OpenClaw 接入 QQ 的具体步骤

由于QQ官方协议复杂且存在风控,OpenClaw 通常通过 OneBot(正向/反向 WebSocket)协议与 NapCat、gocqhttp 等支持QQ机器人的框架桥接,实现与QQ的连接,具体步骤如下:

第一步:准备 QQ 机器人运行环境(NapCat)

  1. 下载 NapCat:前往 GitHub 或 Gitee 下载适用于 QQ NT 版本的 NapCat 机器人框架。

  2. 配置并启动 QQ:解压 NapCat 后,运行启动脚本(如 launcher.bat),自动拉起QQ客户端,登录机器人专用QQ账号(建议使用小号)。

  3. 获取连接信息:启动成功后,从 NapCat 输出日志中,记录 WebSocket 端口(通常为6099或6199)和 Access Token(如有设置)。

第二步:配置 OpenClaw

  1. 安装与启动:确保已安装 OpenClaw CLI 工具,运行openclaw gateway startclawdbot gateway start 启动核心服务。

  2. 进入配置面板:打开浏览器访问 http://127.0.0.1:18789(默认端口),进入 OpenClaw 控制台。

  3. 配置连接器:在控制台找到“Connectors”或“Channels”设置,选择“OneBot”或“QQ”作为连接类型,填入 NapCat 的 WebSocket 地址(格式:ws://127.0.0.1:6099/ws,需根据实际端口修改)和 Access Token(如有)。

  4. 保存并重启:保存配置后,OpenClaw 将自动尝试连接 NapCat。

第三步:验证与使用

  1. 检查状态:在 OpenClaw 控制台日志中,若出现“OneBot connected”或类似字样,说明连接成功。

  2. 发送指令:打开QQ,向机器人账号发送任意消息(如“/start”或“你好”),若 OpenClaw 日志中出现该消息内容,即表明消息通道已打通,可正常使用。

常见问题与注意事项

  • 端口冲突:确保 NapCat 的 WebSocket 端口(如6099)与 OpenClaw 的默认端口(18789)未被其他程序占用。

  • 防火墙设置:远程服务器部署时,需配置防火墙允许 WebSocket 端口通信。

  • 插件安装:若 OpenClaw 配置面板中无QQ选项,需通过 CLI 安装社区插件,命令为 openclaw plugins install @m1heng-clawd/qq

  • 风控警告:QQ对机器人检测较严格,频繁发消息或登录环境异常可能导致账号受限,建议开启“无头模式”并使用稳定网络环境。

  • 替代方案:若配置复杂,可使用 AstrBot 或 NoneBot2 作为中间层(对QQ支持更成熟),再通过API与 OpenClaw 交互。

三、OpenClaw 部署配置指南

OpenClaw 的部署配置主要取决于部署方式(云服务器 vs 本地设备)及运行的模型规模,最低配置要求约为2核CPU、2GB内存,为保障流畅体验,建议使用更高配置。部署方式主要分为云服务器一键部署(新手首选)和本地/手动部署(适合技术用户),以下是详细指南。

3.1 云服务器部署(推荐)

云服务器部署是最稳定、最常用的方式,可实现7x24小时运行,支持手机或电脑远程控制,根据使用需求分为三个配置等级。

最低配置(入门/轻度使用)

  • CPU:2核

  • 内存:2GB

  • 系统盘:40GB以上

  • 带宽:1Mbps起步

  • 系统:Ubuntu 22.04或更高版本

  • 说明:可运行 OpenClaw 核心服务并连接云端大模型(如Claude、GPT、通义千问等),但内存紧张,易因内存不足(OOM)导致服务崩溃,不适合运行本地大模型。

推荐配置(流畅/多任务)

  • CPU:2核或4核

  • 内存:4GB或8GB

  • 说明:更大内存可为AI的思维链和上下文提供充足缓存空间,显著提升响应速度和多轮对话稳定性;若计划接入国产大模型API(通常按token计费),此配置性价比极高。

高阶配置(本地大模型)

  • CPU:4核以上

  • 内存:16GB或32GB以上

  • GPU:NVIDIA显卡,显存6GB以上(如RTX 3060/4090)

  • 说明:适合希望完全在本地运行大模型(如Llama 3、Qwen本地版)、追求极致数据隐私的用户,硬件要求较高,内存和显存需能容纳模型权重。

3.2 本地设备部署(Mac/PC)

本地设备部署成本最低,但电脑关机后服务会中断,适合短期使用或测试。
  • Mac mini / PC:建议使用 Apple Silicon 芯片的 Mac mini 或配备独立显卡的高性能 Windows PC,保障运行流畅度。

  • 树莓派:理论上可行,但性能有限,仅适合学习和测试,无法获得良好的对话体验。

3.3 关键配置建议

  1. 内存是关键:OpenClaw 运行时会加载大量上下文和依赖,2GB内存是“勉强能跑”的底线,强烈建议选择4GB及以上内存,或通过增加Swap交换空间避免服务频繁崩溃。

  2. 地域与网络:        

    1. 主要使用Claude、GPT等国际模型时,服务器建议选择香港或海外节点,确保网络连接稳定。

    2. 使用通义千问、DeepSeek等国内模型时,选择国内服务器即可,同时需注意合规性。

  3. 端口开放:无论哪种部署方式,均需确保服务器防火墙或本地路由器放行18789端口,该端口是 OpenClaw Web 控制台(Dashboard)的默认访问端口。

3.4 部署教程

方案一:云服务器一键部署(新手首选)

该方法利用云服务商提供的镜像,无需手动安装环境,几分钟即可完成部署,以阿里云轻量应用服务器为例,步骤如下:
  1. 购买并配置服务器:        

    1. 选购镜像:登录阿里云(或腾讯云、百度智能云等)控制台,找到轻量应用服务器,在镜像市场中搜索并选择“OpenClaw”(早期镜像可能显示为Moltbot/Clawdbot,内容已更新)。

    2. 配置规格:建议选择2核CPU、2GB内存及以上套餐,1核1G易因内存不足导致崩溃。

    3. 完成购买:支付后,服务器会自动初始化并预装 OpenClaw 环境。

  2. 获取大模型API(大脑):        OpenClaw 本身仅为框架,需连接大模型才能实现思考功能,步骤如下:

    1. 注册平台:前往阿里云百炼(或DeepSeek、OpenAI等偏好的模型平台)注册账号。

    2. 创建密钥:在平台“密钥管理”页面创建API-Key。

    3. 记录信息:复制保存API-Key,以及模型的base_url和model_id(如通义千问的qwen-plus)。

  3. 配置与启动服务:        

    1. 放行端口:在服务器控制台的“防火墙”或“安全组”中,放行18789端口。

    2. 配置密钥:部分云平台提供“一键配置”功能,直接输入API-Key即可;若无此功能,需通过SSH连接服务器,编辑配置文件(通常在~/.clawdbot/clawdbot.json或通过环境变量)填入API-Key。

    3. 启动服务:在终端执行启动命令(如clawdbot gateway start),或在云平台控制台直接启动。

  4. 访问与连接IM:       

    1. 访问面板:通过浏览器访问http://你的服务器IP:18789,进入 OpenClaw 控制台。

    2. 生成Token:在控制台生成访问Token,用于后续连接IM工具。

方案二:本地/手动部署(技术用户)

适合希望部署在本地Mac/PC或旧电脑上的技术用户,步骤如下:
  1. 环境准备:确保系统安装Node.js 22或更高版本,通过命令node -v检查版本是否符合要求。

  2. 一键安装:        

    1. Mac/Linux:打开终端,粘贴并运行官方安装脚本(具体脚本参考官方最新文档,通常为curl -fsSL https://clawd.bot/install.sh | bash)。

    2. Windows:使用PowerShell运行安装命令。

  3. 初始化配置:        

    1. 安装完成后,系统会引导进行配置,选择“QuickStart”模式。

    2. 跳过模型配置,后续手动填入国内模型API更稳定。

    3. 选择“Memory”开启记忆功能。

  4. 接入国产模型(可选):国内用户使用GPT/Claude可能不稳定,可通过命令行接入DeepSeek、千问等国产模型,例如openclaw config set 'models.providers.deepseek' --json '{...}'(具体参数参考模型官方文档)。

3.5 最简单的开始方式

若不想自行购买服务器和安装系统,可使用阿里云轻量应用服务器的OpenClaw一键部署镜像,操作简单、成本低,适合新手快速体验:
  • 操作:在阿里云轻量应用服务器购买页面,选择“应用镜像”中的OpenClaw,系统会自动完成环境配置。

  • 成本:最低配置(2核2G)成本较低,可满足新手初期体验需求。

四、OpenClaw 大模型支持与配置

OpenClaw 本身是一款通用框架,如同“万能插座”,支持市面上几乎所有主流大模型,用户可根据自身需求、预算,灵活选择不同的“大脑”(模型)驱动它运行。这些模型主要分为云端大模型和本地大模型两类,同时支持多模型协同配置,进一步提升使用体验。

4.1 支持的大模型分类

1. 云端大模型(推荐,性能最强)

这是OpenClaw最主要的使用方式,模型运行在服务商服务器上,用户通过API调用,对本地设备配置要求最低,但通常需要付费(或使用免费额度),分为国际巨头和国产大模型两类:
  • 国际巨头:        

    • OpenAI:GPT-4o、GPT-4o mini、o1等系列。

    • Anthropic:Claude 3.7 Sonnet(2026年3月已停用,建议使用更新版本)、Claude Opus 4.5、Claude Haiku等。

    • Google:Gemini 3 Pro、Gemini 3 Flash等。

  • 国产大模型(国内访问更稳定):        

    • 阿里巴巴:通义千问(Qwen)系列(如qwen-plus、qwen-max)。

    • 百度:文心一言(ERNIE)系列。

    • DeepSeek:DeepSeek系列模型(性价比高,近期热度较高)。

    • 月之暗面:Kimi(Moonshot)系列(如Kimi K2.5,OpenClaw官方宣布的免费主力模型之一)。

    • 其他:MiniMax等。

2. 本地大模型(隐私更好,但配置要求高)

用户可将模型部署在自己的电脑或服务器上,OpenClaw通过本地API连接,数据不出内网,隐私性最佳,但对硬件(尤其是显卡显存)要求较高,支持的模型包括:
  • Meta:Llama 3 / Llama 4系列(如Llama-3.1-405B、Llama-4-Maverick)。

  • Mistral / Mixtral系列。

  • Gemma系列。

  • 其他开源模型:只要支持标准OpenAI API协议或兼容协议(如vLLM、Ollama)的开源模型,OpenClaw通常均可接入。

4.2 多模型协同优势

OpenClaw 的核心优势之一是支持多模型协同,用户无需局限于单一模型,可在配置文件中同时填入多个模型的API Key,通过指令或自动规则,让不同模型处理不同任务,例如:默认用Claude Opus处理复杂逻辑,用GPT-4o mini处理简单对话,用本地Llama处理隐私数据,兼顾效率、成本与隐私。

4.3 多模型配置方法

配置多模型主要有两种方式,修改配置文件(适合高级用户,功能最全)和使用命令行向导(适合新手,操作简便),具体步骤如下:

方法一:通过配置文件配置(推荐)

该方式灵活度高,可实现复杂的多模型路由,根据任务特性自动匹配模型,步骤如下:
  1. 找到配置文件:在服务器终端中,使用编辑器打开配置文件,命令为nano ~/.clawdbot/clawdbot.json

  2. 定义多个模型提供商(Providers):在models.providers字段下,添加多个模型服务商,示例如下(同时添加阿里云百炼和DeepSeek):          "models": {     "providers": {       "bailian": {         "baseUrl": "https://dashscope.aliyuncs.com/compatible-mode/v1",         "apiKey": "YOUR_DASHSCOPE_KEY",         "api": "openai-completions",         "models": [           { "id": "qwen-plus", "name": "通义千问 Plus" },           { "id": "qwen-max", "name": "通义千问 Max" }         ]       },       "deepseek": {         "baseUrl": "https://api.deepseek.com/v1",         "apiKey": "YOUR_DEEPSEEK_KEY",         "api": "openai-completions",         "models": [           { "id": "deepseek-chat", "name": "DeepSeek Chat" }         ]       }     }   } }

  3. 设置默认模型:在agents.defaults.model中设置默认使用的模型,格式为provider/model_id,示例如下:         "agents": {     "defaults": {       "model": {         "primary": "bailian/qwen-plus"       }     }   } }

  4. (进阶)配置自动路由规则:可根据指令内容、消息长度等条件,让OpenClaw自动选择模型,示例如下:          "agent": {     "modelRouting": {       "rules": [         {           "condition": { "contentContains": ["代码", "编程"] },           "model": "anthropic/claude-opus-4-5"         },         {           "condition": { "messageLength": { "max": 50 } },           "model": "bailian/qwen-plus"         }       ]     }   } }

方法二:使用命令行向导配置(新手适用)

无需手动编写JSON文件,通过交互式命令即可完成配置,步骤如下:
  1. 启动配置向导:在终端输入命令clawdbot onboard

  2. 选择配置模式:按提示选择“Advanced”(高级模式)或跳过默认模型配置。

  3. 添加模型:向导询问使用哪个模型时,可选择列表中已有的模型,或选择“自定义”并填入API Key。

  4. 设置默认模型:向导最后会询问默认使用的模型,从列表中选择即可完成配置。

4.4 API Key 获取方法

  • 阿里云百炼(Qwen):登录阿里云控制台 → 百炼 → 模型服务 → API Key 管理。

  • DeepSeek:登录DeepSeek官网 → API Key 管理。

  • OpenAI / Anthropic:登录对应官网,在个人中心获取API Key。

4.5 配置验证方法

配置保存后,需重启服务使配置生效,然后验证模型是否配置成功,步骤如下:
  1. 重启服务:在终端执行命令clawdbot gateway restart

  2. 查看模型列表:运行命令clawdbot models list,若配置的模型名称出现在列表中,说明配置成功。

4.6 注意事项

  • API Key安全:API Key是调用模型的关键,请勿泄露给他人,避免产生不必要的费用或信息泄露。

  • 费用说明:除部分免费模型(如Kimi K2.5的免费额度)或开源模型外,调用GPT-4o、Claude Opus等高级模型通常会产生费用,需注意控制使用量。


陕ICP备2024039037号-3 陕公网安备61019602000617号