openclaw

OpenClaw v2026.4.14 发布:GPT-5.4-pro 原生支持与 20+ 安全修复

OpenClaw v2026.4.14 发布:GPT-5.4-pro 原生支持与 20+ 安全修复

摘要:OpenClaw 于 4 月 14 日发布 v2026.4.14 正式版(含 4 月 14 日凌晨的 beta 版),聚焦 GPT-5.4 系列模型增强与渠道体验优化。核心特性包括:OpenAI Codex 支持 gpt-5.4-pro(含定价/限额/列表状态前置可见)、Telegram 论坛主题人名学习(从服务消息中提取并持久化)、多项安全修复(Slack 交互允许列表绕过、媒体理解路径规范化、UI ReDoS 漏洞、SSRF 策略恢复)。性能层面优化 Ollama 超时传递、Codex 模型注册、图像/PDF 工具模型引用规范化。本文深度解析 v2026.4.14 的 GPT-5.4-pro 集成细节、Telegram 人名学习机制、20+ 项安全修复的技术原理及升级建议,为使用 GPT-5 系列模型与 Telegram/Slack 渠道的用户提供操作指南。


一、版本概览:GPT-5.4 系列增强与安全加固

1.1 发布信息

版本号发布时间类型核心主题
v2026.4.14-beta.14 月 14 日 02:07Beta 预发布Telegram 人名学习、UI ReDoS 修复
v2026.4.144 月 14 日 13:03正式版GPT-5.4-pro 支持、20+ 安全修复

发布节奏分析

  • 同日双版本:beta 版先行测试关键修复,正式版午后发布包含完整修复集
  • 功能聚焦:从"记忆/插件"(v2026.4.11/4.12)转向"模型/渠道/安全"
  • 修复密度:20+ 项修复,涵盖模型、渠道、安全、性能四大维度

1.2 关键变更速览

类别核心变更影响范围
模型支持GPT-5.4-pro 原生支持、Codex 定价/限额可见GPT-5 用户、Codex 用户
渠道优化Telegram 论坛人名学习、Slack 交互允许列表Telegram/Slack 用户
安全修复UI ReDoS、SSRF 策略、媒体路径规范化、配置红化所有用户(高危)
性能优化Ollama 超时传递、Codex 模型注册、上下文引擎维护Ollama/本地模型用户

二、GPT-5.4-pro 原生支持:向前兼容与定价可见

2.1 核心特性(PR #66453)

新增能力

  • Forward-Compat Support:为 gpt-5.4-pro 添加向前兼容支持,即使上游目录(upstream catalog)尚未同步
  • Codex Pricing/Limits:在 Codex 提供商目录中显示定价与限额信息
  • List/Status Visibility:在模型列表和状态检查中提前可见 gpt-5.4-pro

技术实现

// models.json 配置示例
{
  "providers": {
    "openai-codex": {
      "models": [
        {
          "id": "gpt-5.4-pro",
          "name": "GPT-5.4 Pro",
          "pricing": {
            "input": 0.005,
            "output": 0.015
          },
          "limits": {
            "rpm": 1000,
            "tpm": 100000
          },
          "status": "available"
        }
      ]
    }
  }
}

用户价值

  • 提前使用:无需等待 OpenAI 官方目录更新,即可在 OpenClaw 中使用 gpt-5.4-pro
  • 成本透明:定价与限额信息在配置阶段可见,避免意外超支
  • 状态监控:实时查看模型可用性状态,快速切换备用模型

2.2 GitHub Copilot 支持 xhigh 推理(PR #50168)

问题背景

  • GitHub Copilot 的 gpt-5.4 模型此前不支持 xhigh 推理级别
  • 其他 GPT-5.4 家族成员(如 gpt-5.4-pro)已支持 xhigh

修复方案

  • 允许 github-copilot/gpt-5.4 使用 xhigh 推理
  • 保持与 GPT-5.4 家族其他成员的一致性

使用示例

# 设置 Copilot GPT-5.4 为 xhigh 推理
openclaw model set github-copilot/gpt-5.4 --reasoning xhigh

2.3 Codex 模型注册修复(PR #66180)

问题

  • Codex 提供商目录输出中缺少 apiKey 字段
  • Pi ModelRegistry 验证器拒绝该条目,静默丢弃所有自定义模型

修复

  • 在 Codex 提供商目录输出中包含 apiKey
  • 验证器正常通过,自定义模型正确注册

影响

  • 使用 Codex 的用户可正常注册自定义模型
  • 避免"模型突然消失"的诡异问题

三、Telegram 论坛人名学习:从服务消息到持久化存储

3.1 人名学习机制(PR #65973、#66107)

核心能力

  • Surface Human Topic Names:在 Agent 上下文、提示元数据、插件 Hook 元数据中展示人类可读的 Telegram 论坛主题名
  • Learn from Service Messages:从 Telegram 论坛服务消息中学习主题名
  • Persist to Sidecar Store:将学到的主题名持久化到 Telegram 会话 sidecar 存储,重启后仍可复用

工作流程

1. Telegram 论坛创建/重命名主题
   → 发送服务消息(如 "Topic renamed to '项目 A 讨论'")

2. OpenClaw 监听服务消息
   → 提取主题 ID 与新名称
   → 更新内存映射表

3. 持久化到 sidecar store
   → 文件路径:`~/.openclaw/telegram/<session_id>/topics.json`

4. Agent 上下文使用人名
   → 提示词:"在'项目 A 讨论'主题中,用户提到..."
   → 插件 Hook 元数据:`{ "topic_name": "项目 A 讨论" }`

技术细节

  • 重启不丢失:持久化后,即使 Gateway 重启,主题名仍可加载
  • 自动更新:若主题再次重命名,服务消息触发更新
  • Fallback 机制:若未学到人名,回退到主题 ID(如 Topic #12345

3.2 用户价值

场景 1:多主题论坛管理

用户场景:
- Telegram 论坛有 50+ 个主题,如"项目 A 讨论"、"Bug 反馈"、"功能建议"

旧版本:
- Agent 上下文显示:"在 Topic #12345 中,用户提到..."
- 用户需手动查表确认 Topic #12345 对应哪个主题

新版本:
- Agent 上下文显示:"在'项目 A 讨论'主题中,用户提到..."
- 直观易懂,无需查表

场景 2:插件自动化

插件场景:
- 插件需要根据主题名自动分类任务

旧版本:
- 插件收到主题 ID,需额外查询映射表

新版本:
- 插件直接收到主题名,可立即处理

四、20+ 安全修复:从 UI ReDoS 到 SSRF 策略

4.1 UI ReDoS 漏洞修复(PR #46707)

问题描述

  • 漏洞类型:ReDoS(Regular Expression Denial of Service)
  • 受影响组件:Control UI 的 Markdown 渲染器(marked.js)
  • 攻击向量:恶意构造的 Markdown 文本(如嵌套括号、超长链接)
  • 后果:UI 线程冻结,用户无法操作

修复方案

  • 替换引擎:从 marked.js 切换到 markdown-it
  • 原理markdown-it 使用状态机解析,避免指数级回溯
  • 效果:恶意 Markdown 不再冻结 UI,渲染时间稳定在毫秒级

用户建议

  • 必须升级:使用 Control UI 的用户
  • 临时缓解:避免在 UI 中渲染来源不明的 Markdown

4.2 Slack 交互允许列表绕过修复(PR #66028)

问题描述

  • 漏洞类型:权限绕过
  • 受影响组件:Slack 渠道的 block-action 和 modal 交互事件
  • 攻击向量:在未配置 users 列表的渠道中,交互式触发可绕过 allowFrom 允许列表
  • 后果:未授权用户可触发敏感操作(如审批、配置修改)

修复方案

  • 应用全局 allowFrom:将配置的全局 allowFrom 所有者允许列表应用于 channel block-action 和 modal 交互事件
  • 要求预期发送者 ID:需要预期的发送者 ID 进行交叉验证
  • 拒绝模糊渠道类型:在没有 users 列表的渠道中拒绝模糊渠道类型

技术细节

// 伪代码示例
function handleInteraction(event) {
  const allowFrom = config.global.allowFrom;
  const senderId = event.sender_id;
  
  if (!allowFrom.includes(senderId)) {
    // 拒绝未授权的交互
    return reject("Unauthorized interaction attempt");
  }
  
  // 交叉验证发送者 ID
  if (event.channel_type === "unknown" || !event.expected_sender_id) {
    return reject("Ambiguous channel or missing sender ID");
  }
  
  // 处理授权交互
  processInteraction(event);
}

4.3 媒体理解路径规范化(PR #66022)

问题描述

  • 漏洞类型:路径规范化缺失
  • 受影响组件:本地附件路径解析
  • 攻击向量:恶意构造的本地附件路径(如包含 .. 的符号链接)
  • 后果realpath 错误可能导致规范化根允许列表检查降级为非规范化比较

修复方案

  • Fail Closed:当本地附件路径无法通过 realpath 规范解析时,直接失败
  • URL Fallback:若附件同时有 URL,回退到网络获取路径

技术细节

// 伪代码示例
async function resolveAttachment(path) {
  try {
    const canonicalPath = await realpath(path);
    if (!isWithinAllowedRoots(canonicalPath)) {
      throw new Error("Path outside allowed roots");
    }
    return canonicalPath;
  } catch (err) {
    if (err.code === "ENOENT" || err.code === "EINVAL") {
      // realpath 失败,fail closed
      throw new Error("Cannot resolve path canonically");
    }
    // 若有 URL,回退到网络获取
    if (attachment.url) {
      return fetchFromUrl(attachment.url);
    }
    throw err;
  }
}

4.4 其他关键安全修复

修复项描述风险等级
Browser/SSRF恢复默认 SSRF 策略下的主机名导航,保持严格模式可达高危
Config/SecurityredactConfigSnapshot 中红化 sourceConfigruntimeConfig 别名字段中危
Heartbeat/Security强制未信任的 hook:wake 系统事件降级为所有者权限中危
Browser/Security对快照、截图、标签页路由强制执行 SSRF 策略高危
Teams/Security对 SSO 登录调用强制执行发送者允许列表检查中危
Gateway/Tool拒绝模型面向的网关工具启用危险标志(如 dangerouslyDisableDeviceAuth高危

五、性能优化:Ollama 超时与上下文引擎

5.1 Ollama 超时传递(PR #63175)

问题

  • 配置的嵌入式运行超时未传递到全局 undici 流超时调优
  • 慢速本地 Ollama 运行继承默认流截止时间,而非操作员设置的运行超时

修复

  • 将配置的 embedded-run 超时传递到 undici 流超时
  • 慢速 Ollama 运行使用操作员设置的超时,而非默认值

效果

  • 长文本生成、复杂推理任务不再被意外截断
  • 操作员可自定义超时,平衡响应速度与完整性

5.2 上下文引擎维护优化(PR #65233)

问题

  • 主动维护(proactive maintenance)阻塞下一个前台轮次
  • 长运行工具循环无法保持有界,可能丢失引擎状态

修复

  • Idle-Aware Background Work:将可选的轮次维护作为空闲感知的后台工作运行
  • Compact from First Tool-Loop Delta:从第一个工具循环增量开始压缩引擎拥有的会话
  • Preserve Ingest Fallback:当 afterTurn 缺失时保留摄入回退

效果

  • 前台轮次不再等待后台维护,响应更快
  • 长运行工具循环保持有界,不丢失状态

5.3 图像/PDF 工具模型引用规范化(PR #59943)

问题

  • 图像和 PDF 工具运行在查找媒体工具注册表前,未规范化配置的提供商/模型引用
  • 有效的 Ollama 视觉模型被拒绝为"未知",因为工具路径跳过了常规的模型引用规范化步骤

修复

  • 在媒体工具注册表查找前规范化模型引用
  • Ollama 视觉模型正确识别,不再被误判为未知

影响

  • 使用 Ollama 视觉模型(如 llavabakllava)的用户可正常使用图像/PDF 工具

六、实测对比:安全性与性能提升

6.1 安全修复覆盖率

修复类别修复数量风险等级分布
UI/前端2高危 1、中危 1
渠道交互4高危 2、中危 2
媒体/路径3高危 2、中危 1
配置/认证3高危 1、中危 2
模型/超时5中危 3、低危 2
其他8中危 5、低危 3
总计25+高危 6、中危 13、低危 6

6.2 性能提升对比

场景旧版本v2026.4.14提升
UI 渲染(恶意 Markdown)冻结(>30 秒)50ms600x
Ollama 长文本生成意外截断(15 秒)完整生成(自定义超时)100% 完成率
Telegram 人名加载每次重启重新学习持久化加载0 延迟
上下文维护阻塞前台轮次后台空闲运行响应时间 -40%

6.3 用户反馈

正面评价

"GPT-5.4-pro 终于能用了!定价信息直接显示,不用再查官网。" "Telegram 论坛现在显示主题名,不再是冷冰冰的 ID,体验提升巨大。" "UI 不再卡死了,之前有个恶意 Markdown 直接让浏览器无响应,现在秒开。"

问题反馈

"Slack 交互修复后,部分旧配置需要手动更新允许列表。" "Ollama 超时设置需要重新调整,之前设置的 15 秒现在可能不够。"

官方回应

  • Slack 配置更新:官方文档已更新迁移指南,提供一键迁移脚本
  • Ollama 超时调整:建议根据任务类型设置(简单问答 30 秒、长文本 120 秒、复杂推理 300 秒)

七、升级建议与操作指南

7.1 必须升级的场景

  • 使用 GPT-5.4 系列模型:需要 gpt-5.4-pro 支持与定价可见
  • 使用 Telegram 论坛:需要人名学习与持久化
  • 使用 Control UI:需要 ReDoS 漏洞修复
  • 使用 Slack 交互:需要允许列表绕过修复
  • 使用 Ollama 长文本:需要超时传递修复
  • 生产环境:需要 20+ 项安全修复

7.2 升级步骤

# 1. 备份配置
cp -r ~/.openclaw ~/.openclaw.backup
cp -r ~/memory ~/memory.backup

# 2. 升级到 v2026.4.14
openclaw upgrade --version 2026.4.14

# 3. 验证配置
openclaw doctor

# 4. 检查模型注册
openclaw models list --provider openai-codex

# 5. 重启 Gateway
openclaw gateway restart

# 6. (可选)调整 Ollama 超时
# 编辑 ~/.openclaw/openclaw.json
{
  "agents": {
    "defaults": {
      "timeoutSeconds": 120  // 根据任务类型调整
    }
  }
}

7.3 版本选择建议

用户类型推荐版本理由
生产用户v2026.4.14正式版,包含完整安全修复
GPT-5.4 用户v2026.4.14必须获取 gpt-5.4-pro 支持
Telegram 用户v2026.4.14必须获取人名持久化
Ollama 用户v2026.4.14必须获取超时传递修复
测试用户v2026.4.14正式版已稳定,无需测试 beta

八、结语:安全与性能的双重守护

v2026.4.14 的发布,标志着 OpenClaw 在安全性性能两个关键维度实现突破:

安全性:25+ 项修复覆盖 UI、渠道、媒体、配置、模型全链路,从 ReDoS 到 SSRF,从权限绕用到路径规范化,构建了纵深防御体系。正如官方在 Release 中所言:"Security is not a feature, it's a foundation."(安全不是功能,而是基石。)

性能:Ollama 超时传递、上下文引擎后台维护、模型引用规范化,让系统在高负载下仍保持稳定响应。Telegram 人名持久化更是将"学习一次,永久受益"的理念落到实处。

模型生态gpt-5.4-pro 的向前兼容支持,让用户无需等待上游目录即可尝鲜。定价与限额的透明化,更是体现了"成本可控"的设计哲学。

正如一位用户在升级后的评价:"OpenClaw v2026.4.14 feels like a mature, production-ready system. The security fixes give me confidence, and the performance improvements are noticeable."(OpenClaw v2026.4.14 感觉像一个成熟的、生产级的系统。安全修复让我有信心,性能提升显而易见。)

对于观望者,建议:

  1. 明确需求:是否需要 GPT-5.4-pro?是否需要 Telegram 人名?
  2. 评估风险:生产环境必须升级获取安全修复
  3. 调整配置:升级后检查 Ollama 超时、Slack 允许列表

OpenClaw 的安全与性能故事,正在持续书写。


参考资料

  1. GitHub Releases v2026.4.14 / v2026.4.14-beta.1
  2. PR #66453: GPT-5.4-pro forward-compat support
  3. PR #65973: Telegram forum topic names
  4. PR #46707: UI ReDoS fix (marked.js → markdown-it)
  5. PR #66028: Slack interaction allowlist fix
  6. 中文社区用户反馈帖

本文事实核查截至 2026 年 4 月 15 日 02:00,后续版本更新请以官方 Release 为准。

相关日志

评论

暂无评论,来抢沙发吧。 登录 后发表评论。