跳到主要内容

云端部署OpenClaw,打造专属AI智能助手

更新时间:2026-03-11 11:43:25
OpenClaw使用超便捷预置脚本集成飞书Agent算力钜惠

在AI自动化工具高速发展的今天,OpenClaw作为一款开源AI代理与自动化平台,正以其出色的灵活性和兼容性,成为许多人打造专属智能助手的优选方案。它支持通过自然语言指令操控设备、处理各类自动化任务,并能无缝适配Qwen、Claude、GPT等主流大语言模型,让复杂任务的调度变得简单直观。过去,部署此类工具常涉及繁琐的环境配置,对普通用户门槛较高。如今,借助大模型实验室可以让更多非技术用户也能轻松上手,快速构建专属Agent。

大模型实验室是一个开放共享的内容社区平台,支持按需自定义创建GPU和CPU实例,用户可一键启动符合业务需求的计算资源。其高性能GPU算力满足高精度推理与训练需求,同时提供“JupyterLab”和“VS Code”等开发环境,方便用户利用CPU/GPU实例进行数据预处理与模型调试,全面提升大模型应用开发效率。

前提条件

操作步骤

配置概览

参数配置项说明
模型Qwen3-30B-A3B-Instruct-2507-FP8Qwen3-30B-A3B-Instruct-2507-FP8是300亿参数MoE模型,激活30亿,支持256K上下文,经指令微调并采用FP8量化,高效卓越。
CPU4核建议至少配置4核CPU资源。

脚本配置

  1. 使用已注册的大模型实验室账号登录平台,点击悬浮菜单栏的“文件管理”按钮,在user-data目录下新建一个名为“openclaw”的文件夹,例如下图所示。

    SwanLab对比图

  2. 大模型实验室已预置OpenClaw应用脚本,启动CPU/GPU实例即可获取对应脚本,点击菜单栏[算力平台]菜单项或者悬浮菜单栏的“新建实例”按钮,选择VSCode图标,进入实例启动配置页面,例如下图所示。

  3. 选择CPU资源,卡数填写4,其他参数保持为默认值,单击“启动”按钮,启动实例。

    SwanLab对比图

  4. 实例启动后,点击[New Terminal/Terminal]进入终端页面,在终端运行如下所示的命令打开预置的配置文件,切换到插入模式,开始编辑文本。

    vim /root/.openclaw/openclaw.json
    信息

    vim有几种主要模式,最常用的是普通模式和插入模式。启动后,默认为普通模式。

    • i:在光标前插入。
    • a:在光标后插入。
    • Esc键可随时退出插入模式,返回普通模式。
  1. 请将openclaw.json脚本中的apiKey字段替换为您的Baicai Infer(白菜AIGC)推理API Key,以便调用平台已部署的 Qwen3-30B-A3B-Instruct-2507-FP8大模型服务。

    SwanLab对比图

  1. 访问飞书开放平台,单击[创建企业自建应用],填写应用名称和描述,选择应用图标,单击“创建”按钮,例如下图所示。

    SwanLab对比图

  2. 单击左侧导航栏[凭证与基础信息]页签,在该页面复制App IDApp Secret,例如下图所示。

    SwanLab对比图

  3. openclaw.json脚本中的appIdappSecret分别替换为您自己App IDApp Secret

    SwanLab对比图

上述参数配置完成后,按 Esc 退出编辑模式,在英文输入法下输入:wq保存并退出,即可完成OpenClaw服务的脚本配置。

Web访问服务(可选)

上述配置保存完成后,如果您想通过WebUI页面访问OpenClaw服务,仅需做一下配置即可。

  1. openclaw.json脚本文件中将allowedorigins字段修改为实例对外访问地址,例如下图绿色高亮所示。

    SwanLab对比图

  2. 在浏览器中打开实例访问地址,切换至[概览]页签,将网关令牌替换为上述红色高亮显示的token值(08f3f8dfe83e3c92ba9a723eb8b5d22aa30858c7279d8fd5),随后单击“连接”。若网关握手状态显示正常,即表示该服务可正常访问,例如下图所示。

    SwanLab对比图

  3. 切换至“聊天”菜单项,即可在WebUI页面与OpenClaw应用进行对话,例如下图所示。

    SwanLab对比图

备注

若存在安全风险,可自定义token值,只需确保步骤2与步骤3中的token保持一致即可。

飞书配置

  1. 返回飞书自建应用,单击导航栏的[权限管理]页签,点击“批量导入/导出权限”按钮,粘贴以下JSON配置,单击“下一步,确认新增权限”按钮,单击“申请开通”按钮,并“确认开启”所需权限。

      {
    "scopes": {
    "tenant": [
    "aily:file:read",
    "aily:file:write",
    "application:application.app_message_stats.overview:readonly",
    "application:application:self_manage",
    "application:bot.menu:write",
    "cardkit:card:write",
    "contact:user.employee_id:readonly",
    "corehr:file:download",
    "docs:document.content:read",
    "event:ip_list",
    "im:chat",
    "im:chat.access_event.bot_p2p_chat:read",
    "im:chat.members:bot_access",
    "im:message",
    "im:message.group_at_msg:readonly",
    "im:message.group_msg",
    "im:message.p2p_msg:readonly",
    "im:message:readonly",
    "im:message:send_as_bot",
    "im:resource",
    "sheets:spreadsheet",
    "wiki:wiki:readonly"
    ],
    "user": ["aily:file:read", "aily:file:write", "im:chat.access_event.bot_p2p_chat:read"]
    }
    }
  2. 单击左侧导航栏[添加应用能力]页签,选择[按能力添加/机器人]Tab页,单击“配置”按钮即可。

  3. 单击左侧导航栏[事件与回调]页签,在[事件配置]页签中单击[订阅方式],选择[使用长连接接收事件],单击“保存”按钮。

    SwanLab对比图

提示

配置文件保存后服务通常立即启动,但可能存在短暂延迟。若首次保存失败,请等待1分钟后重试。

  1. 在事件配置页面,单击“添加事件”按钮,搜索事件im.message.receive_v1(接收消息),单击“确认添加”按钮,添加对应配置,例如下图所示。

    SwanLab对比图

  2. 参数配置完成后,在[版本管理与发布]页面创建版本,填写“应用版本号”和“更新说明”,单击“保存”,提交审核并发布该应用。

    SwanLab对比图

提示

应用发布后通常无需人工审核,系统将自动上线。

  1. 打开飞书客户端,开发小助手提醒“[自建应用发布申请]自动审核通过”并且应用已发布成功,例如下图所示。

    SwanLab对比图

  2. 单击“打开应用”按钮,例如上图高亮①所示,进入与机器人进行对话窗口。向机器人发送一条消息,机器人会回复一个配对码。

    SwanLab对比图

  3. 在大模实验室实例的终端页面运行openclaw pairing approve feishu 配对码命令并回车,例如下图所示。

    SwanLab对比图

提示

如果运行上述命令时,页面提示“bash:openclaw:command not found”,通常可以运行以下命令解决。

source ~/.profile
  1. 配对成功后,即可开始与Agent开始对话,例如下图所示。

    SwanLab对比图

大模型实验室实例停止时,关联应用将自动进入低功耗休眠状态,即时释放计算资源以节省成本;当实例再次启动,应用无缝恢复至中断前的运行状态并随即激活。灵活的应用管理不仅实现了资源的按需分配,更让您在保障业务连续性的同时,获得优质的管控体验。

常见问题

问题1:如何重启openclaw服务?

如果您想重启openclaw服务,可参考以下步骤完成操作。

  1. 在[New Terminal/Terminal]终端页面运行如下所示的命令,如下图高亮①所示,获取openclaw的进程信息。

    ps -ef |grep openclaw
  2. 执行kill命令终止进程,如下图高亮③所示,随后该进程将自动重启,如下图高亮④所示,进程启动后标志着openclaw服务重启完成。

    kill <进程号>

    SwanLab对比图

总结

OpenClaw已深度适配大模型实验室环境,支持无缝部署。通过高度可定制的脚本配置引擎,灵活定义数据流与控制逻辑,实现与各类第三方应用及工具链的深度集成与自动化协同,从而构建起高效的大模型研发闭环。