基于 OpenClaw 與 瑞芯微RV1126B 私有化部署飛書智能助手全流程

原創(chuàng) 作者 飛凌嵌入式 2026-03-20 13:00:00 RV1126B OpenClaw 飛書部署

OpenClaw憑借出眾的能力爆火出圈,如果將它集成到飛書中做成專屬智能助手,能大幅提升日常辦公效率,讓文檔總結、消息處理、任務協(xié)同更智能高效。想要穩(wěn)定落地這一場景,一塊靠譜的邊緣硬件平臺必不可少。

飛凌嵌入式OK1126B-S開發(fā)板

方案基于瑞芯微RK1126B處理器打造的邊緣AI視覺開發(fā)板,集成4個ARM Cortex-A53高性能核心,具備3TOPS@INT8的AI計算能力,可輕松完成端側輕量化AI模型實時推理。性能高、功耗低、私密性強的特性,讓它非常適合作為本地AI Agent的運行平臺。

OK1126B-S開發(fā)板硬件接口示意圖

系統(tǒng)推薦:使用Debian/Ubuntu等完整Linux發(fā)行版,方便通過apt安裝依賴庫與AI相關組件;不建議使用精簡Linux(如Buildroot),否則在開發(fā)和部署過程中會增加環(huán)境搭建成本。

本文將為大家介紹本地私有化模型部署以及訪問云端模型API的方法,完成基于RV1126B開發(fā)板飛書智能助手的全流程搭建。

一、OpenClaw安裝與模型配置

1.1 安裝OpenClaw

執(zhí)行以下命令一鍵安裝OpenClaw:

curl -fsSL https://openclaw.ai/install.sh | bash

安裝完成后進入引導界面,若未自動彈出,可在終端輸入以下命令手動啟動:

openclaw onboard --install-daemon

進入引導界面后,依次選擇:yes → QuickStart → Use existing values

OpenClaw初始化引導配置界面

若您有帶NVIDIA GPU的服務器,可直接跳轉(zhuǎn)到1.3適配本地模型章節(jié),在您的服務器上部署免費的模型。

1.2 接入云端付費模型

進入模型選擇界面,此處我們選擇Qwen免費模型進行體驗,若您擁有付費模型的API,可在此處選擇對應的模型。

OpenClaw模型提供商選擇列表

以接入Qwen模型為例,點擊界面中的鏈接,登錄后即可免費體驗Qwen模型:

Qwen模型OAuth授權引導界面

1.3 接入本地模型

若選擇云端模型API,可跳過此章節(jié)。本地模型部署基于Ollama實現(xiàn),全流程如下:

1.3.1 服務器端安裝Ollama

最低配置要求

  • 內(nèi)存:4GB(適配1B-3B小模型)
  • 存儲:10GB空閑空間
  • 系統(tǒng):Linux/macOS 12+ /Windows 10+

推薦配置要求

  • 內(nèi)存:16GB+(適配7B-14B模型)
  • 顯卡:NVIDIA 8GB+顯存(支持GPU加速)
  • 存儲:50GB+SSD

執(zhí)行以下命令安裝Ollama:

curl -fsSL https://ollama.com/install.sh | sh

上述腳本會自動下載最新版本的Ollama,創(chuàng)建系統(tǒng)服務并啟動后臺進程。安裝完成后,執(zhí)行以下命令驗證安裝,輸出版本號即為成功:

ollama --version

Ollama安裝成功版本驗證示例

1.3.2 修改Ollama service服務配置

Ollama服務默認運行在127.0.0.1上,無法滿足遠程調(diào)用需求,需修改對應service服務配置:

vi /etc/systemd/system/ollama.service

在[Service]區(qū)域添加以下配置:

Environment="OLLAMA_HOST=0.0.0.0"

Ollama service服務配置修改示例

修改完成后,執(zhí)行以下命令重啟服務:

sudo systemctl daemon-reload
sudo systemctl restart ollama

1.3.3 下載并運行指定模型

執(zhí)行以下命令,會自動下載指定模型并運行,此處我們選擇qwen3.5-9b模型,您可根據(jù)實際服務器情況選擇對應模型。

注:在https://ollama.com/library目錄下,可查看Ollama支持的所有模型。

ollama run qwen3.5:9b

Ollama模型成功運行界面示例

此時,可在OK1126B-S開發(fā)板(基于RV1126B設計)上執(zhí)行以下命令測試對話,正常情況下將得到模型返回的輸出內(nèi)容:

curl http://${服務器IP地址}:11434/api/chat -d '{"model": "qwen3.5:9b",
"messages": [ 
{"role": "user", "content": "你是誰"} 
]
}'

1.3.4 OpenClaw配置文件修改

使用本地模型時,需手動修改OpenClaw的配置文件,步驟如下:

Step1:編輯OpenClaw配置文件

vi ~/.openclaw/openclaw.json

Step2:粘貼以下配置內(nèi)容,并按Step3說明修改適配

{
  "meta": {
    "lastTouchedVersion": "2026.3.8",
    "lastTouchedAt": "2026-03-12T01:44:37.610Z"
  },
  "wizard": {
    "lastRunAt": "2026-03-12T01:44:37.566Z",
    "lastRunVersion": "2026.3.8",
    "lastRunCommand": "onboard",
    "lastRunMode": "local"
  },
  "auth": {
    "profiles": {}
  },
  "models": {
    "providers": {
      "ollama-remote": {
        "baseUrl": "http://192.168.1.111:11434/v1",
        "apiKey": "sk-no-key-required",
        "api": "openai-completions",
        "models": [
          {
            "id": "qwen3.5:9b",
            "name": "Qwen 3.5 9B (Remote Ollama)",
            "reasoning": false,
            "input": [
              "text"
            ],
            "cost": {
              "input": 0,
              "output": 0,
              "cacheRead": 0,
              "cacheWrite": 0
            },
            "contextWindow": 32768,
            "maxTokens": 8192
          }
        ]
      }
    }
  },
  "agents": {
    "defaults": {
      "model": {
        "primary": "ollama-remote/qwen3.5:9b"
      },
      "models": {
        "ollama-remote/qwen3.5:9b": {
          "alias": "qwen"
        }
      },
      "workspace": "/root/.openclaw/workspace",
      "compaction": {
        "mode": "safeguard"
      },
      "maxConcurrent": 4,
      "subagents": {
        "maxConcurrent": 8
      }
    }
  },
  "tools": {
    "profile": "coding"
  },
  "messages": {
    "ackReactionScope": "group-mentions"
  },
  "commands": {
    "native": "auto",
    "nativeSkills": "auto",
    "restart": true,
    "ownerDisplay": "raw"
  },
  "session": {
    "dmScope": "per-channel-peer"
  },
  "gateway": {
    "port": 18789,
    "mode": "local",
    "bind": "loopback",
    "auth": {
      "mode": "token",
      "token": "4893303352c56f5e9acbb076cc47c5398bb8df525fed4699"
    },
    "tailscale": {
      "mode": "off",
      "resetOnExit": false
    },
    "nodes": {
      "denyCommands": [
        "camera.snap",
        "camera.clip",
        "screen.record",
        "contacts.add",
        "calendar.add",
        "reminders.add",
        "sms.send"
      ]
    }
  },
  "plugins": {
    "entries": {}
  }
}

Step3:配置字段修改適配說明

  1. models.providers 下面的 key 可自定義填寫,示例中為 "ollama-remote";
  2. baseUrl 字段需填寫服務器的地址,即1.3.3中使用curl測試時的地址,示例為 "http://192.168.1.111:11434/v1";
  3. apiKey 字段可任意填寫,但不可為空;
  4. api 字段需根據(jù)模型的輸出接口形式確定,ollama輸出標準openai格式,故此處為 openai-completions;
  5. models 字段下的 id 需嚴格匹配 ollama 中的模型名,name 字段可自定義填寫;
  6. agents 字段需修改 primary 字段以及 models 字段的 key 值,修改為 "models.providers 下的key / models.id",示例為 "ollama-remote/qwen3.5:9b"。

配置完成后,重新在命令行輸入以下命令進入引導界面:

openclaw onboard

1.3.5 選擇本地模型

進入模型選擇階段,直接選擇Skip for now跳過即可。

OpenClaw模型選擇跳過界面

后續(xù)篩選模型時,選擇All providers,然后在默認模型選項中,選擇Keep current,括號內(nèi)會顯示之前配置的本地模型。

OpenClaw本地模型默認選擇界面

1.4 基礎配置

以下基礎配置僅適用于初次驗證,無額外集成功能,按界面提示依次選擇即可。

OpenClaw通道選擇界面

OpenClaw啟動方式選擇界面

OpenClaw通道選擇界面

OpenClaw通道選擇界面

若為首次安裝,會自動安裝Gateway service;若非首次安裝,選擇Restart即可。

OpenClaw啟動方式選擇界面

首次安裝完成后,會出現(xiàn)啟動方式選擇:TUI為終端命令行輸入模式,Web UI為開發(fā)板連接顯示器后通過Web界面操作。

OpenClaw啟動方式選擇界面

若未自動彈出啟動方式選擇界面,可手動輸入以下命令進入終端對話模式:

openclaw tui

執(zhí)行后即可正常與模型對話:

OpenClaw TUI終端對話界面示例

二、飛書智能助手部署全流程

2.1 創(chuàng)建飛書應用

進入飛書開發(fā)者后臺:https://open.feishu.cn/app,點擊"創(chuàng)建企業(yè)自建應用"。

飛書開發(fā)者后臺創(chuàng)建企業(yè)自建應用入口

填寫"應用名稱"和"應用描述"后,點擊"創(chuàng)建"按鈕完成應用創(chuàng)建。

飛書企業(yè)自建應用創(chuàng)建信息填寫界面

在"憑證與基礎信息"欄目中,復制App ID以及App Secret,后續(xù)配置需要使用。

飛書應用憑證信息查看界面

2.2 OpenClaw飛書插件配置

在OK1126B-S開發(fā)板上輸入以下命令,安裝并啟用飛書插件,查看插件狀態(tài):

openclaw plugins enable feishu
openclaw plugins list

Feishu一欄顯示Loaded即代表插件啟動成功。

OpenClaw插件列表狀態(tài)查看界面

執(zhí)行以下命令進入通道配置界面,選擇Yes:

openclaw channels add

OpenClaw飛書插件配置

在通道選擇列表中,選擇"Feishu/Lark(飛書)"。

OpenClaw飛書插件配置

選擇"Enter App Secret",依次輸入2.1步驟中復制的App Secret以及App ID。

OpenClaw飛書插件配置

設置連接模式為"WebSocket",并選擇國內(nèi)域名"Feishu (feishu.cn) -China"。

OpenClaw飛書插件配置

群聊策略選擇"Open"(響應所有群聊,需@機器人),Allowlist策略僅響應白名單中的群聊,可按需選擇。

OpenClaw飛書插件配置

點擊"Finished",其余選項保持默認配置即可。

OpenClaw飛書插件配置

OpenClaw飛書插件配置

2.3 飛書機器人權限與事件配置

回到飛書開發(fā)者后臺的應用界面,完成以下配置:

2.3.1 開啟機器人能力

依次點擊:添加應用能力→機器人,點擊"添加"按鈕,開啟機器人能力。

飛書應用添加機器人能力界面

2.3.2 配置應用權限

依次點擊:權限管理→批量導入/導出權限。

飛書應用權限管理界面

在批量導入/導出權限界面,粘貼以下JSON內(nèi)容,啟用對應權限:

{
  "scopes": {
    "tenant": [
      "aily:file:read",
      "aily:file:write",
      "application:application.app_message_stats.overview:readonly",
      "application:application:self_manage",
      "application:bot.menu:write",
      "cardkit:card:read",
      "cardkit:card:write",
      "contact:user.employee_id:readonly",
      "corehr:file:download",
      "event:ip_list",
      "im:chat.access_event.bot_p2p_chat:read",
      "im:chat.members:bot_access",
      "im:message",
      "im:message.group_at_msg:readonly",
      "im:message.p2p_msg:readonly",
      "im:message:readonly",
      "im:message:send_as_bot",
      "im:resource"
    ],
    "user": ["aily:file:read", "aily:file:write", "im:chat.access_event.bot_p2p_chat:read"]
  }
}

依次點擊:下一步,確認新增權限 → 申請開通,完成權限配置。

飛書應用權限導入確認界面

2.3.3 配置事件訂閱

依次點擊:事件與回調(diào) → 事件配置 → 訂閱方式 → 使用長連接接收事件 → 保存。

飛書事件訂閱方式配置界面

點擊"添加事件",添加以下事件:

飛書添加事項配置界面

  • im.message.receive_v1 - 接收消息
  • im.message.message_read_v1 - 消息已讀回執(zhí)
  • im.chat.member.bot.added_v1 - 機器人進群
  • im.chat.member.bot.deleted_v1 - 機器人被移出群

2.3.4 發(fā)布應用版本

依次點擊:版本管理與發(fā)布 → 創(chuàng)建版本,填寫版本號和版本說明后,提交發(fā)布申請。

飛書應用版本創(chuàng)建與發(fā)布界面

注:個人版飛書應用發(fā)布免審,提交后自動通過并生效;企業(yè)版需企業(yè)管理員審核通過后生效。

2.4 功能測試

進入飛書APP端,點擊右上角+號,創(chuàng)建群組。

飛書創(chuàng)建群組

依次點擊右上角...進入群設置界面,選擇添加機器人。

飛書群添加機器人界面

輸入剛才創(chuàng)建的機器人名字后,添加機器人即可。

飛書群添加機器人界面

添加完成后,即可在飛書中@機器人進行對話,完成飛書智能助手的全流程部署。

飛書機器人對話測試效果示例

咨詢立即獲得專屬報價

華北區(qū)負責人二維碼

華北區(qū)負責人

華東區(qū)負責人二維碼

華東區(qū)負責人

華南區(qū)負責人二維碼

華南區(qū)負責人

中西區(qū)負責人二維碼

中西區(qū)負責人

相關產(chǎn)品 >

  • FET1126BJ-S核心板

    FET1126BJ-S核心板是飛凌嵌入式基于瑞芯微RV1126BJ處理器開發(fā)的國產(chǎn)化邊緣AI計算平臺。該處理器專為端側及邊緣側AI應用場景打造,集成4核ARM Cortex-A53架構,提供高達3TOPS@INT8的AI算力,是智慧工業(yè)、智慧園區(qū)、智慧工地等場景實現(xiàn)視頻分析與目標識別的優(yōu)選方案 了解詳情
    FET1126BJ-S核心板
  • OK1126BJ-S開發(fā)板

    RV1126B開發(fā)板(型號:OK1126B-S)是飛凌嵌入式基于瑞芯微RV1126B處理器打造的國產(chǎn)化邊緣AI計算平臺。集成4核A53 CPU與3TOPS@INT8獨立NPU,支持Linux 6.1系統(tǒng),提供完整BSP與RKNN工具鏈,兼容TensorFlow/PyTorch主流框架。核心板采用郵票孔+LGA設計,支持-40℃~+85℃工業(yè)級寬溫,配備MIPI-DSI、雙網(wǎng)口、CAN-FD及樹莓派兼容40Pin GPIO接口。尺寸僅120mm×75mm,專為智慧工業(yè)質(zhì)檢、園區(qū)安防、工地安全監(jiān)測等端側AI場景設計,提供10年供應保障與7×24小時技術支持。 了解詳情
    OK1126BJ-S開發(fā)板

推薦閱讀 換一批 換一批