自托管的数据流向
使用 OpenClaw 自托管方案时,数据流向如下:
你的客户端(Telegram/WebChat)→ 你的服务器(OpenClaw Gateway)→ 模型 API(Anthropic/MiniMax 等)→ 返回结果
全程不经过任何第三方中间商。OpenClaw 官方服务器不会接触你的任何对话内容。
与 SaaS AI 产品的隐私对比
| 对比维度 | OpenClaw 自托管 | ChatGPT/Kimi 等 SaaS |
|---|---|---|
| 数据存储位置 | 你自己的服务器 | 服务商服务器 |
| 是否用于训练 | 否(由模型 API 条款决定) | 部分条款允许使用 |
| 第三方访问 | 无 | 服务商内部员工可能可见 |
| 数据出境 | 可选择国内模型(MiniMax)避免 | 不可控 |
| 对话历史控制 | 完全自主,可随时删除 | 依赖平台政策 |
哪些数据会发送给模型 API?
只有对话内容(你的消息 + 上下文历史)会发送给模型 API。以下内容不会发送:
- 服务器的系统信息
- 其他用户的对话
openclaw.json中的敏感配置(API Key 等)- 未参与当前对话的文件或数据
最高隐私方案:Ollama 完全本地化
如果需要最高级别的隐私保护,可以使用 Ollama 本地模型方案:
- 安装 Ollama 并拉取模型(如
ollama pull qwen2.5:7b) - OpenClaw 配置仅使用 Ollama 作为模型提供商
- 所有计算在本机完成,完全不联网
这种方案下,对话内容永远不会离开你的设备。
OpenClaw 的 Secret Provider
OpenClaw 提供 Secret Provider 功能,用于加密存储敏感配置(如 API Key、数据库密码):
- 支持系统环境变量、文件加密两种存储方式
- API Key 不以明文存储在配置文件中
- 多用户场景下,每个用户的凭证相互隔离
在 openclaw.json 中使用环境变量引用:
{
"models": [
{
"provider": "anthropic",
"apiKey": "${ANTHROPIC_API_KEY}"
}
]
}
如何验证数据不被上传
使用系统自带的网络监控工具(如 macOS 的 Little Snitch,或 Wireshark)抓包验证。正常情况下,OpenClaw 进程只会向你配置的模型 API 地址发送请求,不会有其他出站连接。
常见问题
Q:对话记录存在哪里?
对话历史存储在你自己服务器的数据库中(默认为 SQLite 文件,位于 data/ 目录)。你可以随时备份、迁移或删除。
Q:Skills 会收集我的数据吗?
Skills 本身是本地执行的脚本,不会主动上传数据。但如果某个 Skill 调用了外部 API(如搜索、天气),相关查询词会发送给对应的外部服务。安装第三方 Skill 前建议查看其源码。
延伸阅读
- OpenClaw 常见报错解决方案 — 故障排查完整指南
- 什么是 MCP? — 了解 Agent 工具扩展协议