使用指南约8分钟

OpenClaw 数据安全吗?隐私与数据存储完整说明(2026)

OpenClaw 自托管模式下,数据流向清晰:你的消息只在自己的服务器和模型 API 之间传输,不经过其他第三方。配合 Ollama 本地模型可实现完全离线的最高隐私方案。OpenClaw 还提供 Secret Provider 对敏感配置加密存储。

自托管的数据流向

使用 OpenClaw 自托管方案时,数据流向如下:

你的客户端(Telegram/WebChat)→ 你的服务器(OpenClaw Gateway)→ 模型 API(Anthropic/MiniMax 等)→ 返回结果

全程不经过任何第三方中间商。OpenClaw 官方服务器不会接触你的任何对话内容。


与 SaaS AI 产品的隐私对比

对比维度 OpenClaw 自托管 ChatGPT/Kimi 等 SaaS
数据存储位置 你自己的服务器 服务商服务器
是否用于训练 否(由模型 API 条款决定) 部分条款允许使用
第三方访问 服务商内部员工可能可见
数据出境 可选择国内模型(MiniMax)避免 不可控
对话历史控制 完全自主,可随时删除 依赖平台政策

哪些数据会发送给模型 API?

只有对话内容(你的消息 + 上下文历史)会发送给模型 API。以下内容不会发送:

  • 服务器的系统信息
  • 其他用户的对话
  • openclaw.json 中的敏感配置(API Key 等)
  • 未参与当前对话的文件或数据

最高隐私方案:Ollama 完全本地化

如果需要最高级别的隐私保护,可以使用 Ollama 本地模型方案:

  1. 安装 Ollama 并拉取模型(如 ollama pull qwen2.5:7b
  2. OpenClaw 配置仅使用 Ollama 作为模型提供商
  3. 所有计算在本机完成,完全不联网

这种方案下,对话内容永远不会离开你的设备。


OpenClaw 的 Secret Provider

OpenClaw 提供 Secret Provider 功能,用于加密存储敏感配置(如 API Key、数据库密码):

  • 支持系统环境变量、文件加密两种存储方式
  • API Key 不以明文存储在配置文件中
  • 多用户场景下,每个用户的凭证相互隔离

openclaw.json 中使用环境变量引用:

{
  "models": [
    {
      "provider": "anthropic",
      "apiKey": "${ANTHROPIC_API_KEY}"
    }
  ]
}

如何验证数据不被上传

使用系统自带的网络监控工具(如 macOS 的 Little Snitch,或 Wireshark)抓包验证。正常情况下,OpenClaw 进程只会向你配置的模型 API 地址发送请求,不会有其他出站连接。


常见问题

Q:对话记录存在哪里?

对话历史存储在你自己服务器的数据库中(默认为 SQLite 文件,位于 data/ 目录)。你可以随时备份、迁移或删除。

Q:Skills 会收集我的数据吗?

Skills 本身是本地执行的脚本,不会主动上传数据。但如果某个 Skill 调用了外部 API(如搜索、天气),相关查询词会发送给对应的外部服务。安装第三方 Skill 前建议查看其源码。


延伸阅读

关注我们,获取最新 AI 动态

在 X 上关注 @lanmiaoai,第一时间获取教程更新、AI 工具推荐。

立即关注

その他のFAQ