OpenClawCN 中文资料站开始 · 文档 · 进阶 · 动态 · 支持
产品更新2026-03-05
#local-model#privacy#llama#mistral#ollama

OpenClaw 本地模型支持全面升级

OpenClaw 现已支持更多本地大语言模型,包括 Llama 3、Mistral、Qwen 等,让用户在保护隐私的同时享受 AI 能力。

发布时间2026-03-05
最后更新2026-03-12

AI 摘要

这页重点

核心结论

OpenClaw 现已支持更多本地大语言模型,包括 Llama 3、Mistral、Qwen 等,让用户在保护隐私的同时享受 AI 能力。

适用主题

产品更新

高频关键词

local-model / privacy / llama / mistral / ollama

可信信号

最后更新 2026-03-12

OpenClaw 宣布本地模型支持全面升级,用户现在可以更方便地使用本地大语言模型,在保护数据隐私的同时享受完整的 AI 助手能力。

支持的本地模型

推荐模型

模型参数量内存需求特点
Llama 3.18B/70B8GB/40GB综合能力强
Mistral7B8GB效率高
Qwen 2.57B/14B8GB/16GB中文友好
Phi-33.8B4GB轻量级
Gemma 29B10GB安全可靠

模型选择建议

使用场景推荐模型理由
日常对话Mistral 7B响应快,效果好
中文任务Qwen 2.5中文理解优秀
代码辅助Llama 3.1代码能力强
低配置设备Phi-3资源占用少
企业部署Llama 3.1 70B能力全面

配置方式

使用 Ollama

Ollama 是最简单的本地模型运行方式:

# 安装 Ollama
curl -fsSL https://ollama.com/install.sh | sh

# 下载模型
ollama pull llama3.1
ollama pull mistral
ollama pull qwen2.5

# 启动服务
ollama serve

OpenClaw 配置

{
  "providers": {
    "ollama": {
      "enabled": true,
      "baseUrl": "http://localhost:11434",
      "models": ["llama3.1", "mistral", "qwen2.5"]
    }
  },
  "model": {
    "default": "ollama:llama3.1",
    "fallback": "ollama:mistral"
  }
}

使用 vLLM

对于高性能部署:

# 安装 vLLM
pip install vllm

# 启动服务
vllm serve meta-llama/Llama-3.1-8B-Instruct --port 8000

配置:

{
  "providers": {
    "vllm": {
      "enabled": true,
      "baseUrl": "http://localhost:8000",
      "models": ["Llama-3.1-8B-Instruct"]
    }
  }
}

性能优化

硬件建议

配置级别CPU内存GPU适用模型
入门4核8GBPhi-3
标准8核16GBRTX 3060Mistral, Qwen 7B
高级16核32GBRTX 4080Llama 3.1 8B
专业32核64GBRTX 4090Llama 3.1 70B (量化)

量化选项

{
  "localModel": {
    "quantization": {
      "enabled": true,
      "method": "4bit",
      "options": {
        "4bit": "最佳性能",
        "8bit": "平衡质量",
        "fp16": "最高质量"
      }
    }
  }
}

混合模式

OpenClaw 支持本地模型和云端模型混合使用:

{
  "modelStrategy": {
    "chat": "ollama:llama3.1",
    "summarization": "ollama:mistral",
    "complex": "openai:gpt-4",
    "embedding": "ollama:nomic-embed"
  }
}

智能路由

根据任务复杂度自动选择模型:

{
  "routing": {
    "simple": "ollama:mistral",
    "medium": "ollama:llama3.1",
    "complex": "openai:gpt-4",
    "thresholds": {
      "tokenCount": 2000,
      "complexity": "auto"
    }
  }
}

隐私优势

数据本地化

  • 所有对话数据保留在本地
  • 无需网络传输敏感信息
  • 完全自主的数据控制

合规支持

  • 满足数据本地化要求
  • 支持行业合规需求
  • 企业级隐私保护

常见问题

模型下载慢?

# 使用镜像源
export OLLAMA_MIRROR=https://mirror.example.com
ollama pull llama3.1

内存不足?

# 使用量化模型
ollama pull llama3.1:7b-q4

# 或调整上下文长度
ollama run llama3.1 --num-ctx 2048

响应慢?

  • 检查 GPU 是否正确使用
  • 尝试更小的模型
  • 调整批处理大小

下一步

继续阅读

先跟踪动态,再回到稳定方法

新闻适合快速掌握变化,实践和文档更适合沉淀长期方法。看完动态后,建议继续进入相关实践或更早一篇更新。

关联入口

同主题、同路径、同阶段