400-638-8808
|
微信公眾號




穩(wěn)定可靠 永不間斷

海外收發(fā) 暢通無阻

協(xié)同辦公 資源管理

超大郵件 超級功能

智能反垃圾郵件技術
易管理 免維護

切換 OpenClaw 的 AI 模型是降低成本、適配不同任務的核心操作,核心邏輯是“通過配置命令指定模型的 API 地址、密鑰和模型名稱“,支持「云端模型切換」「本地模型切換」「多模型自動路由」三種場景,以下是新手友好的分步指南,附完整命令和驗證方法。
一、核心切換邏輯
OpenClaw 本身不提供模型能力,所有推理依賴外部模型(云端 API/本地部署),切換模型本質是修改「模型配置參數(shù)」,關鍵參數(shù)包括:
- "llm.base_url":模型 API 地址(云端如 OpenAI 官網(wǎng),本地如 Ollama 地址)
- "llm.api_key":模型 API 密鑰(本地模型無需)
- "llm.model":模型名稱(如 "gpt-4o-mini"/"qwen2.5:7b")
二、場景1:切換到云端低價模型(最常用)
適合日常任務(寫郵件、總結、簡單指令),以「GPT-4o Mini」「DeepSeek-R1」為例,成本僅為 GPT-4o 的 1/10。
1. 切換到 GPT-4o Mini(OpenAI 云端)
"""bash
1. 設置模型基礎配置
claw config set llm.base_url https://api.openai.com/v1
claw config set llm.api_key "你的OpenAI API密鑰" 替換為真實密鑰
claw config set llm.model "gpt-4o-mini"
2. 驗證配置是否生效
claw config get llm.model 輸出應顯示 gpt-4o-mini
3. 測試模型調用
claw run "用一句話總結 OpenClaw 的核心功能"
"""
2. 切換到 DeepSeek-R1(國內云端,更穩(wěn)定)
"""bash
1. 設置 DeepSeek 配置
claw config set llm.base_url https://api.deepseek.com/v1
claw config set llm.api_key "你的DeepSeek API密鑰"
claw config set llm.model "deepseek-r1"
2. 測試
claw run "寫一封簡單的工作日報模板"
"""
3. 常用云端低價模型參數(shù)表
| 模型名稱 | base_url | model 名稱 | 特點 | ||
| GPT-4o Mini | https://api.openai.com/v1 | gpt-4o-mini | 性價比高,英文友好 | ||
| DeepSeek-R1 | https://api.deepseek.com/v1 | deepseek-r1 | 中文友好,成本極低 | ||
| Gemini Flash | https://generativelanguage.googleapis.com/v1 | gemini-1.5-flash | 多模態(tài),有免費額度 | ||
| Claude Haiku | https://api.anthropic.com/v1 | claude-3-haiku-20240307 | 長文本,成本低 | ||
三、場景2:切換到本地模型(0成本)
適合隱私敏感、不想付費的場景,以「Ollama 部署的 Qwen2.5/LLaMA 3.2」為例,完全本地運行,無 API 費用。
1. 前置準備(安裝 Ollama)
"""bash
Mac/Linux 安裝 Ollama
curl -fsSL https://ollama.com/install.sh | sh
Windows 需先裝 WSL2,再執(zhí)行上述命令
"""
2. 拉取并運行本地模型(選輕量版)
"""bash
拉取并運行通義千問 2.5(7B,平衡效果和速度)
ollama run qwen2.5:7b
或更小的 LLaMA 3.2(3B,速度極快)
ollama run llama3.2:3b
"""
3. OpenClaw 切換到本地模型
"""bash
1. 設置本地模型配置(無需 API Key)
claw config set llm.base_url http://localhost:11434/v1 Ollama 默認端口
claw config set llm.api_key "ollama" 固定值,無需修改
claw config set llm.model "qwen2.5:7b" 對應拉取的模型名稱
2. 驗證
claw config get llm.base_url 輸出 http://localhost:11434/v1
3. 測試本地調用(無網(wǎng)絡也能運行)
claw run "整理下載文件夾,按類型分類"
"""
四、場景3:多模型自動路由(進階,成本最優(yōu))
讓 OpenClaw 自動根據(jù)任務難度切換模型:
- 簡單任務(文件操作、提醒)→ 本地模型(0成本)
- 復雜任務(長文本總結、推理)→ 云端低價模型
- 極復雜任務(多模態(tài)、專業(yè)推理)→ 高端模型(如 Claude Sonnet)
1. 安裝模型路由技能
"""bash
clawhub install model-router
"""
2. 配置路由規(guī)則
"""bash
發(fā)送自然語言指令配置規(guī)則
claw run "配置模型路由規(guī)則:
1. 簡單任務(文件整理、寫郵件、定時提醒)→ 使用本地模型 qwen2.5:7b
2. 中等任務(長文本總結、數(shù)據(jù)分析)→ 使用 GPT-4o Mini
3. 復雜任務(多模態(tài)、代碼開發(fā))→ 使用 Claude Sonnet
所有規(guī)則自動生效,無需手動切換"
"""
3. 驗證路由效果
"""bash
簡單任務 → 本地模型
claw run "重命名桌面的 test.txt 為 工作筆記.txt"
中等任務 → GPT-4o Mini
claw run "總結 1000 字的會議記錄,提取核心待辦"
"""
五、關鍵操作:重置/恢復模型配置
1. 查看當前所有模型配置
"""bash
claw config list | grep llm 過濾出所有模型相關配置
"""
2. 重置模型配置(出錯時用)
"""bash
claw config reset llm 重置所有模型配置為默認
"""
3. 恢復到之前的模型(如 Claude Sonnet)
"""bash
保存常用配置為模板(可選)
claw config save claude-sonnet 保存當前配置為 claude-sonnet 模板
恢復模板
claw config load claude-sonnet
"""
六、避坑要點
1. “本地模型啟動前需確保 Ollama 運行“:
"""bash
ollama serve 啟動 Ollama 服務(后臺運行)
"""
2. “API Key 錯誤會導致調用失敗“:
- 檢查密鑰是否復制完整(無空格、無多余字符)
- 云端模型需確保賬號有余額
3. “模型名稱必須完全匹配“:
- 本地模型名稱需和 "ollama list" 輸出一致(如 "qwen2.5:7b" 而非 "qwen2.5")
- 云端模型名稱需和官方文檔一致(如 "gpt-4o-mini" 而非 "gpt-4o mini")
4. “切換模型后重啟 OpenClaw(可選)“:
"""bash
claw restart 確保配置生效
"""
總結
1. 切換 OpenClaw 模型核心是修改 "llm.base_url"/"llm.api_key"/"llm.model" 三個參數(shù);
2. 日常任務優(yōu)先用「云端低價模型」或「本地模型」,大幅降低成本;
3. 進階可配置「模型路由」,讓 OpenClaw 自動選最優(yōu)模型,兼顧成本和效果;
4. 切換后通過 "claw run" 測試指令,驗證模型是否正常調用。
天下數(shù)據(jù)手機站 關于天下數(shù)據(jù) 聯(lián)系我們 誠聘英才 付款方式 幫助中心 網(wǎng)站備案 解決方案 域名注冊 網(wǎng)站地圖
天下數(shù)據(jù)18年專注海外香港服務器、美國服務器、海外云主機、海外vps主機租用托管以及服務器解決方案-做天下最好的IDC服務商
《中華人民共和國增值電信業(yè)務經(jīng)營許可證》 ISP證:粵ICP備07026347號
朗信天下發(fā)展有限公司(控股)深圳市朗玥科技有限公司(運營)聯(lián)合版權
深圳總部:中國.深圳市南山區(qū)深圳國際創(chuàng)新谷6棟B座10層 香港總部:香港上環(huán)蘇杭街49-51號建安商業(yè)大廈7樓
7×24小時服務熱線:4006388808香港服務電話:+852 67031102
本網(wǎng)站的域名注冊業(yè)務代理北京新網(wǎng)數(shù)碼信息技術有限公司的產(chǎn)品