基于 OpenClaw 與 瑞芯微RV1126B 私有化部署飛書智能助手全流程
飛凌嵌入式
2026-03-20 13:00:00
RV1126B
OpenClaw
飛書部署
OpenClaw憑借出眾的能力爆火出圈,如果將它集成到飛書中做成專屬智能助手,能大幅提升日常辦公效率,讓文檔總結、消息處理、任務協(xié)同更智能高效。想要穩(wěn)定落地這一場景,一塊靠譜的邊緣硬件平臺必不可少。
飛凌嵌入式OK1126B-S開發(fā)板
本方案基于瑞芯微RK1126B處理器打造的邊緣AI視覺開發(fā)板,集成4個ARM Cortex-A53高性能核心,具備3TOPS@INT8的AI計算能力,可輕松完成端側輕量化AI模型實時推理。性能高、功耗低、私密性強的特性,讓它非常適合作為本地AI Agent的運行平臺。
OK1126B-S開發(fā)板硬件接口示意圖
系統(tǒng)推薦:使用Debian/Ubuntu等完整Linux發(fā)行版,方便通過apt安裝依賴庫與AI相關組件;不建議使用精簡Linux(如Buildroot),否則在開發(fā)和部署過程中會增加環(huán)境搭建成本。
本文將為大家介紹本地私有化模型部署以及訪問云端模型API的方法,完成基于RV1126B開發(fā)板飛書智能助手的全流程搭建。
一、OpenClaw安裝與模型配置
1.1 安裝OpenClaw
執(zhí)行以下命令一鍵安裝OpenClaw:
curl -fsSL https://openclaw.ai/install.sh | bash
安裝完成后進入引導界面,若未自動彈出,可在終端輸入以下命令手動啟動:
openclaw onboard --install-daemon
進入引導界面后,依次選擇:yes → QuickStart → Use existing values
OpenClaw初始化引導配置界面
若您有帶NVIDIA GPU的服務器,可直接跳轉(zhuǎn)到1.3適配本地模型章節(jié),在您的服務器上部署免費的模型。
1.2 接入云端付費模型
進入模型選擇界面,此處我們選擇Qwen免費模型進行體驗,若您擁有付費模型的API,可在此處選擇對應的模型。
OpenClaw模型提供商選擇列表
以接入Qwen模型為例,點擊界面中的鏈接,登錄后即可免費體驗Qwen模型:
Qwen模型OAuth授權引導界面
1.3 接入本地模型
若選擇云端模型API,可跳過此章節(jié)。本地模型部署基于Ollama實現(xiàn),全流程如下:
1.3.1 服務器端安裝Ollama
最低配置要求:
- 內(nèi)存:4GB(適配1B-3B小模型)
- 存儲:10GB空閑空間
- 系統(tǒng):Linux/macOS 12+ /Windows 10+
推薦配置要求:
- 內(nèi)存:16GB+(適配7B-14B模型)
- 顯卡:NVIDIA 8GB+顯存(支持GPU加速)
- 存儲:50GB+SSD
執(zhí)行以下命令安裝Ollama:
curl -fsSL https://ollama.com/install.sh | sh
上述腳本會自動下載最新版本的Ollama,創(chuàng)建系統(tǒng)服務并啟動后臺進程。安裝完成后,執(zhí)行以下命令驗證安裝,輸出版本號即為成功:
ollama --version
Ollama安裝成功版本驗證示例
1.3.2 修改Ollama service服務配置
Ollama服務默認運行在127.0.0.1上,無法滿足遠程調(diào)用需求,需修改對應service服務配置:
vi /etc/systemd/system/ollama.service
在[Service]區(qū)域添加以下配置:
Environment="OLLAMA_HOST=0.0.0.0"
Ollama service服務配置修改示例
修改完成后,執(zhí)行以下命令重啟服務:
sudo systemctl daemon-reload sudo systemctl restart ollama
1.3.3 下載并運行指定模型
執(zhí)行以下命令,會自動下載指定模型并運行,此處我們選擇qwen3.5-9b模型,您可根據(jù)實際服務器情況選擇對應模型。
注:在https://ollama.com/library目錄下,可查看Ollama支持的所有模型。
ollama run qwen3.5:9b
Ollama模型成功運行界面示例
此時,可在OK1126B-S開發(fā)板(基于RV1126B設計)上執(zhí)行以下命令測試對話,正常情況下將得到模型返回的輸出內(nèi)容:
curl http://${服務器IP地址}:11434/api/chat -d '{"model": "qwen3.5:9b",
"messages": [
{"role": "user", "content": "你是誰"}
]
}'
1.3.4 OpenClaw配置文件修改
使用本地模型時,需手動修改OpenClaw的配置文件,步驟如下:
Step1:編輯OpenClaw配置文件
vi ~/.openclaw/openclaw.json
Step2:粘貼以下配置內(nèi)容,并按Step3說明修改適配
{
"meta": {
"lastTouchedVersion": "2026.3.8",
"lastTouchedAt": "2026-03-12T01:44:37.610Z"
},
"wizard": {
"lastRunAt": "2026-03-12T01:44:37.566Z",
"lastRunVersion": "2026.3.8",
"lastRunCommand": "onboard",
"lastRunMode": "local"
},
"auth": {
"profiles": {}
},
"models": {
"providers": {
"ollama-remote": {
"baseUrl": "http://192.168.1.111:11434/v1",
"apiKey": "sk-no-key-required",
"api": "openai-completions",
"models": [
{
"id": "qwen3.5:9b",
"name": "Qwen 3.5 9B (Remote Ollama)",
"reasoning": false,
"input": [
"text"
],
"cost": {
"input": 0,
"output": 0,
"cacheRead": 0,
"cacheWrite": 0
},
"contextWindow": 32768,
"maxTokens": 8192
}
]
}
}
},
"agents": {
"defaults": {
"model": {
"primary": "ollama-remote/qwen3.5:9b"
},
"models": {
"ollama-remote/qwen3.5:9b": {
"alias": "qwen"
}
},
"workspace": "/root/.openclaw/workspace",
"compaction": {
"mode": "safeguard"
},
"maxConcurrent": 4,
"subagents": {
"maxConcurrent": 8
}
}
},
"tools": {
"profile": "coding"
},
"messages": {
"ackReactionScope": "group-mentions"
},
"commands": {
"native": "auto",
"nativeSkills": "auto",
"restart": true,
"ownerDisplay": "raw"
},
"session": {
"dmScope": "per-channel-peer"
},
"gateway": {
"port": 18789,
"mode": "local",
"bind": "loopback",
"auth": {
"mode": "token",
"token": "4893303352c56f5e9acbb076cc47c5398bb8df525fed4699"
},
"tailscale": {
"mode": "off",
"resetOnExit": false
},
"nodes": {
"denyCommands": [
"camera.snap",
"camera.clip",
"screen.record",
"contacts.add",
"calendar.add",
"reminders.add",
"sms.send"
]
}
},
"plugins": {
"entries": {}
}
}
Step3:配置字段修改適配說明
- models.providers 下面的 key 可自定義填寫,示例中為 "ollama-remote";
- baseUrl 字段需填寫服務器的地址,即1.3.3中使用curl測試時的地址,示例為 "http://192.168.1.111:11434/v1";
- apiKey 字段可任意填寫,但不可為空;
- api 字段需根據(jù)模型的輸出接口形式確定,ollama輸出標準openai格式,故此處為 openai-completions;
- models 字段下的 id 需嚴格匹配 ollama 中的模型名,name 字段可自定義填寫;
- agents 字段需修改 primary 字段以及 models 字段的 key 值,修改為 "models.providers 下的key / models.id",示例為 "ollama-remote/qwen3.5:9b"。
配置完成后,重新在命令行輸入以下命令進入引導界面:
openclaw onboard
1.3.5 選擇本地模型
進入模型選擇階段,直接選擇Skip for now跳過即可。
OpenClaw模型選擇跳過界面
后續(xù)篩選模型時,選擇All providers,然后在默認模型選項中,選擇Keep current,括號內(nèi)會顯示之前配置的本地模型。
OpenClaw本地模型默認選擇界面
1.4 基礎配置
以下基礎配置僅適用于初次驗證,無額外集成功能,按界面提示依次選擇即可。
OpenClaw啟動方式選擇界面
OpenClaw通道選擇界面
若為首次安裝,會自動安裝Gateway service;若非首次安裝,選擇Restart即可。
OpenClaw啟動方式選擇界面
首次安裝完成后,會出現(xiàn)啟動方式選擇:TUI為終端命令行輸入模式,Web UI為開發(fā)板連接顯示器后通過Web界面操作。
OpenClaw啟動方式選擇界面
若未自動彈出啟動方式選擇界面,可手動輸入以下命令進入終端對話模式:
openclaw tui
執(zhí)行后即可正常與模型對話:
OpenClaw TUI終端對話界面示例
二、飛書智能助手部署全流程
2.1 創(chuàng)建飛書應用
進入飛書開發(fā)者后臺:https://open.feishu.cn/app,點擊"創(chuàng)建企業(yè)自建應用"。
飛書開發(fā)者后臺創(chuàng)建企業(yè)自建應用入口
填寫"應用名稱"和"應用描述"后,點擊"創(chuàng)建"按鈕完成應用創(chuàng)建。
飛書企業(yè)自建應用創(chuàng)建信息填寫界面
在"憑證與基礎信息"欄目中,復制App ID以及App Secret,后續(xù)配置需要使用。
飛書應用憑證信息查看界面
2.2 OpenClaw飛書插件配置
在OK1126B-S開發(fā)板上輸入以下命令,安裝并啟用飛書插件,查看插件狀態(tài):
openclaw plugins enable feishu openclaw plugins list
Feishu一欄顯示Loaded即代表插件啟動成功。
OpenClaw插件列表狀態(tài)查看界面
執(zhí)行以下命令進入通道配置界面,選擇Yes:
openclaw channels add
OpenClaw飛書插件配置
在通道選擇列表中,選擇"Feishu/Lark(飛書)"。
OpenClaw飛書插件配置
選擇"Enter App Secret",依次輸入2.1步驟中復制的App Secret以及App ID。
OpenClaw飛書插件配置
設置連接模式為"WebSocket",并選擇國內(nèi)域名"Feishu (feishu.cn) -China"。
OpenClaw飛書插件配置
群聊策略選擇"Open"(響應所有群聊,需@機器人),Allowlist策略僅響應白名單中的群聊,可按需選擇。
OpenClaw飛書插件配置
點擊"Finished",其余選項保持默認配置即可。
OpenClaw飛書插件配置
OpenClaw飛書插件配置
2.3 飛書機器人權限與事件配置
回到飛書開發(fā)者后臺的應用界面,完成以下配置:
2.3.1 開啟機器人能力
依次點擊:添加應用能力→機器人,點擊"添加"按鈕,開啟機器人能力。
飛書應用添加機器人能力界面
2.3.2 配置應用權限
依次點擊:權限管理→批量導入/導出權限。
飛書應用權限管理界面
在批量導入/導出權限界面,粘貼以下JSON內(nèi)容,啟用對應權限:
{
"scopes": {
"tenant": [
"aily:file:read",
"aily:file:write",
"application:application.app_message_stats.overview:readonly",
"application:application:self_manage",
"application:bot.menu:write",
"cardkit:card:read",
"cardkit:card:write",
"contact:user.employee_id:readonly",
"corehr:file:download",
"event:ip_list",
"im:chat.access_event.bot_p2p_chat:read",
"im:chat.members:bot_access",
"im:message",
"im:message.group_at_msg:readonly",
"im:message.p2p_msg:readonly",
"im:message:readonly",
"im:message:send_as_bot",
"im:resource"
],
"user": ["aily:file:read", "aily:file:write", "im:chat.access_event.bot_p2p_chat:read"]
}
}
依次點擊:下一步,確認新增權限 → 申請開通,完成權限配置。
飛書應用權限導入確認界面
2.3.3 配置事件訂閱
依次點擊:事件與回調(diào) → 事件配置 → 訂閱方式 → 使用長連接接收事件 → 保存。
飛書事件訂閱方式配置界面
點擊"添加事件",添加以下事件:
飛書添加事項配置界面
- im.message.receive_v1 - 接收消息
- im.message.message_read_v1 - 消息已讀回執(zhí)
- im.chat.member.bot.added_v1 - 機器人進群
- im.chat.member.bot.deleted_v1 - 機器人被移出群
2.3.4 發(fā)布應用版本
依次點擊:版本管理與發(fā)布 → 創(chuàng)建版本,填寫版本號和版本說明后,提交發(fā)布申請。
飛書應用版本創(chuàng)建與發(fā)布界面
注:個人版飛書應用發(fā)布免審,提交后自動通過并生效;企業(yè)版需企業(yè)管理員審核通過后生效。
2.4 功能測試
進入飛書APP端,點擊右上角+號,創(chuàng)建群組。
飛書創(chuàng)建群組
依次點擊右上角...進入群設置界面,選擇添加機器人。
飛書群添加機器人界面
輸入剛才創(chuàng)建的機器人名字后,添加機器人即可。
飛書群添加機器人界面
添加完成后,即可在飛書中@機器人進行對話,完成飛書智能助手的全流程部署。
飛書機器人對話測試效果示例
咨詢立即獲得專屬報價
華北區(qū)負責人
華東區(qū)負責人
華南區(qū)負責人
中西區(qū)負責人
相關產(chǎn)品 >
-
FET1126BJ-S核心板
FET1126BJ-S核心板是飛凌嵌入式基于瑞芯微RV1126BJ處理器開發(fā)的國產(chǎn)化邊緣AI計算平臺。該處理器專為端側及邊緣側AI應用場景打造,集成4核ARM Cortex-A53架構,提供高達3TOPS@INT8的AI算力,是智慧工業(yè)、智慧園區(qū)、智慧工地等場景實現(xiàn)視頻分析與目標識別的優(yōu)選方案 了解詳情
-
OK1126BJ-S開發(fā)板
RV1126B開發(fā)板(型號:OK1126B-S)是飛凌嵌入式基于瑞芯微RV1126B處理器打造的國產(chǎn)化邊緣AI計算平臺。集成4核A53 CPU與3TOPS@INT8獨立NPU,支持Linux 6.1系統(tǒng),提供完整BSP與RKNN工具鏈,兼容TensorFlow/PyTorch主流框架。核心板采用郵票孔+LGA設計,支持-40℃~+85℃工業(yè)級寬溫,配備MIPI-DSI、雙網(wǎng)口、CAN-FD及樹莓派兼容40Pin GPIO接口。尺寸僅120mm×75mm,專為智慧工業(yè)質(zhì)檢、園區(qū)安防、工地安全監(jiān)測等端側AI場景設計,提供10年供應保障與7×24小時技術支持。 了解詳情

