OpenClaw v2026.4.14 发布:GPT-5.4-pro 原生支持与 20+ 安全修复
OpenClaw v2026.4.14 发布:GPT-5.4-pro 原生支持与 20+ 安全修复
摘要:OpenClaw 于 4 月 14 日发布 v2026.4.14 正式版(含 4 月 14 日凌晨的 beta 版),聚焦 GPT-5.4 系列模型增强与渠道体验优化。核心特性包括:OpenAI Codex 支持
gpt-5.4-pro(含定价/限额/列表状态前置可见)、Telegram 论坛主题人名学习(从服务消息中提取并持久化)、多项安全修复(Slack 交互允许列表绕过、媒体理解路径规范化、UI ReDoS 漏洞、SSRF 策略恢复)。性能层面优化 Ollama 超时传递、Codex 模型注册、图像/PDF 工具模型引用规范化。本文深度解析 v2026.4.14 的 GPT-5.4-pro 集成细节、Telegram 人名学习机制、20+ 项安全修复的技术原理及升级建议,为使用 GPT-5 系列模型与 Telegram/Slack 渠道的用户提供操作指南。
一、版本概览:GPT-5.4 系列增强与安全加固
1.1 发布信息
| 版本号 | 发布时间 | 类型 | 核心主题 |
|---|---|---|---|
| v2026.4.14-beta.1 | 4 月 14 日 02:07 | Beta 预发布 | Telegram 人名学习、UI ReDoS 修复 |
| v2026.4.14 | 4 月 14 日 13:03 | 正式版 | GPT-5.4-pro 支持、20+ 安全修复 |
发布节奏分析:
- 同日双版本:beta 版先行测试关键修复,正式版午后发布包含完整修复集
- 功能聚焦:从"记忆/插件"(v2026.4.11/4.12)转向"模型/渠道/安全"
- 修复密度:20+ 项修复,涵盖模型、渠道、安全、性能四大维度
1.2 关键变更速览
| 类别 | 核心变更 | 影响范围 |
|---|---|---|
| 模型支持 | GPT-5.4-pro 原生支持、Codex 定价/限额可见 | GPT-5 用户、Codex 用户 |
| 渠道优化 | Telegram 论坛人名学习、Slack 交互允许列表 | Telegram/Slack 用户 |
| 安全修复 | UI ReDoS、SSRF 策略、媒体路径规范化、配置红化 | 所有用户(高危) |
| 性能优化 | Ollama 超时传递、Codex 模型注册、上下文引擎维护 | Ollama/本地模型用户 |
二、GPT-5.4-pro 原生支持:向前兼容与定价可见
2.1 核心特性(PR #66453)
新增能力:
- Forward-Compat Support:为
gpt-5.4-pro添加向前兼容支持,即使上游目录(upstream catalog)尚未同步 - Codex Pricing/Limits:在 Codex 提供商目录中显示定价与限额信息
- List/Status Visibility:在模型列表和状态检查中提前可见
gpt-5.4-pro
技术实现:
// models.json 配置示例
{
"providers": {
"openai-codex": {
"models": [
{
"id": "gpt-5.4-pro",
"name": "GPT-5.4 Pro",
"pricing": {
"input": 0.005,
"output": 0.015
},
"limits": {
"rpm": 1000,
"tpm": 100000
},
"status": "available"
}
]
}
}
}
用户价值:
- 提前使用:无需等待 OpenAI 官方目录更新,即可在 OpenClaw 中使用
gpt-5.4-pro - 成本透明:定价与限额信息在配置阶段可见,避免意外超支
- 状态监控:实时查看模型可用性状态,快速切换备用模型
2.2 GitHub Copilot 支持 xhigh 推理(PR #50168)
问题背景:
- GitHub Copilot 的
gpt-5.4模型此前不支持xhigh推理级别 - 其他 GPT-5.4 家族成员(如
gpt-5.4-pro)已支持xhigh
修复方案:
- 允许
github-copilot/gpt-5.4使用xhigh推理 - 保持与 GPT-5.4 家族其他成员的一致性
使用示例:
# 设置 Copilot GPT-5.4 为 xhigh 推理
openclaw model set github-copilot/gpt-5.4 --reasoning xhigh
2.3 Codex 模型注册修复(PR #66180)
问题:
- Codex 提供商目录输出中缺少
apiKey字段 - Pi ModelRegistry 验证器拒绝该条目,静默丢弃所有自定义模型
修复:
- 在 Codex 提供商目录输出中包含
apiKey - 验证器正常通过,自定义模型正确注册
影响:
- 使用 Codex 的用户可正常注册自定义模型
- 避免"模型突然消失"的诡异问题
三、Telegram 论坛人名学习:从服务消息到持久化存储
3.1 人名学习机制(PR #65973、#66107)
核心能力:
- Surface Human Topic Names:在 Agent 上下文、提示元数据、插件 Hook 元数据中展示人类可读的 Telegram 论坛主题名
- Learn from Service Messages:从 Telegram 论坛服务消息中学习主题名
- Persist to Sidecar Store:将学到的主题名持久化到 Telegram 会话 sidecar 存储,重启后仍可复用
工作流程:
1. Telegram 论坛创建/重命名主题
→ 发送服务消息(如 "Topic renamed to '项目 A 讨论'")
2. OpenClaw 监听服务消息
→ 提取主题 ID 与新名称
→ 更新内存映射表
3. 持久化到 sidecar store
→ 文件路径:`~/.openclaw/telegram/<session_id>/topics.json`
4. Agent 上下文使用人名
→ 提示词:"在'项目 A 讨论'主题中,用户提到..."
→ 插件 Hook 元数据:`{ "topic_name": "项目 A 讨论" }`
技术细节:
- 重启不丢失:持久化后,即使 Gateway 重启,主题名仍可加载
- 自动更新:若主题再次重命名,服务消息触发更新
- Fallback 机制:若未学到人名,回退到主题 ID(如
Topic #12345)
3.2 用户价值
场景 1:多主题论坛管理
用户场景:
- Telegram 论坛有 50+ 个主题,如"项目 A 讨论"、"Bug 反馈"、"功能建议"
旧版本:
- Agent 上下文显示:"在 Topic #12345 中,用户提到..."
- 用户需手动查表确认 Topic #12345 对应哪个主题
新版本:
- Agent 上下文显示:"在'项目 A 讨论'主题中,用户提到..."
- 直观易懂,无需查表
场景 2:插件自动化
插件场景:
- 插件需要根据主题名自动分类任务
旧版本:
- 插件收到主题 ID,需额外查询映射表
新版本:
- 插件直接收到主题名,可立即处理
四、20+ 安全修复:从 UI ReDoS 到 SSRF 策略
4.1 UI ReDoS 漏洞修复(PR #46707)
问题描述:
- 漏洞类型:ReDoS(Regular Expression Denial of Service)
- 受影响组件:Control UI 的 Markdown 渲染器(marked.js)
- 攻击向量:恶意构造的 Markdown 文本(如嵌套括号、超长链接)
- 后果:UI 线程冻结,用户无法操作
修复方案:
- 替换引擎:从
marked.js切换到markdown-it - 原理:
markdown-it使用状态机解析,避免指数级回溯 - 效果:恶意 Markdown 不再冻结 UI,渲染时间稳定在毫秒级
用户建议:
- 必须升级:使用 Control UI 的用户
- 临时缓解:避免在 UI 中渲染来源不明的 Markdown
4.2 Slack 交互允许列表绕过修复(PR #66028)
问题描述:
- 漏洞类型:权限绕过
- 受影响组件:Slack 渠道的 block-action 和 modal 交互事件
- 攻击向量:在未配置
users列表的渠道中,交互式触发可绕过allowFrom允许列表 - 后果:未授权用户可触发敏感操作(如审批、配置修改)
修复方案:
- 应用全局
allowFrom:将配置的全局allowFrom所有者允许列表应用于 channel block-action 和 modal 交互事件 - 要求预期发送者 ID:需要预期的发送者 ID 进行交叉验证
- 拒绝模糊渠道类型:在没有
users列表的渠道中拒绝模糊渠道类型
技术细节:
// 伪代码示例
function handleInteraction(event) {
const allowFrom = config.global.allowFrom;
const senderId = event.sender_id;
if (!allowFrom.includes(senderId)) {
// 拒绝未授权的交互
return reject("Unauthorized interaction attempt");
}
// 交叉验证发送者 ID
if (event.channel_type === "unknown" || !event.expected_sender_id) {
return reject("Ambiguous channel or missing sender ID");
}
// 处理授权交互
processInteraction(event);
}
4.3 媒体理解路径规范化(PR #66022)
问题描述:
- 漏洞类型:路径规范化缺失
- 受影响组件:本地附件路径解析
- 攻击向量:恶意构造的本地附件路径(如包含
..的符号链接) - 后果:
realpath错误可能导致规范化根允许列表检查降级为非规范化比较
修复方案:
- Fail Closed:当本地附件路径无法通过
realpath规范解析时,直接失败 - URL Fallback:若附件同时有 URL,回退到网络获取路径
技术细节:
// 伪代码示例
async function resolveAttachment(path) {
try {
const canonicalPath = await realpath(path);
if (!isWithinAllowedRoots(canonicalPath)) {
throw new Error("Path outside allowed roots");
}
return canonicalPath;
} catch (err) {
if (err.code === "ENOENT" || err.code === "EINVAL") {
// realpath 失败,fail closed
throw new Error("Cannot resolve path canonically");
}
// 若有 URL,回退到网络获取
if (attachment.url) {
return fetchFromUrl(attachment.url);
}
throw err;
}
}
4.4 其他关键安全修复
| 修复项 | 描述 | 风险等级 |
|---|---|---|
| Browser/SSRF | 恢复默认 SSRF 策略下的主机名导航,保持严格模式可达 | 高危 |
| Config/Security | 在 redactConfigSnapshot 中红化 sourceConfig 和 runtimeConfig 别名字段 | 中危 |
| Heartbeat/Security | 强制未信任的 hook:wake 系统事件降级为所有者权限 | 中危 |
| Browser/Security | 对快照、截图、标签页路由强制执行 SSRF 策略 | 高危 |
| Teams/Security | 对 SSO 登录调用强制执行发送者允许列表检查 | 中危 |
| Gateway/Tool | 拒绝模型面向的网关工具启用危险标志(如 dangerouslyDisableDeviceAuth) | 高危 |
五、性能优化:Ollama 超时与上下文引擎
5.1 Ollama 超时传递(PR #63175)
问题:
- 配置的嵌入式运行超时未传递到全局 undici 流超时调优
- 慢速本地 Ollama 运行继承默认流截止时间,而非操作员设置的运行超时
修复:
- 将配置的
embedded-run超时传递到undici流超时 - 慢速 Ollama 运行使用操作员设置的超时,而非默认值
效果:
- 长文本生成、复杂推理任务不再被意外截断
- 操作员可自定义超时,平衡响应速度与完整性
5.2 上下文引擎维护优化(PR #65233)
问题:
- 主动维护(proactive maintenance)阻塞下一个前台轮次
- 长运行工具循环无法保持有界,可能丢失引擎状态
修复:
- Idle-Aware Background Work:将可选的轮次维护作为空闲感知的后台工作运行
- Compact from First Tool-Loop Delta:从第一个工具循环增量开始压缩引擎拥有的会话
- Preserve Ingest Fallback:当
afterTurn缺失时保留摄入回退
效果:
- 前台轮次不再等待后台维护,响应更快
- 长运行工具循环保持有界,不丢失状态
5.3 图像/PDF 工具模型引用规范化(PR #59943)
问题:
- 图像和 PDF 工具运行在查找媒体工具注册表前,未规范化配置的提供商/模型引用
- 有效的 Ollama 视觉模型被拒绝为"未知",因为工具路径跳过了常规的模型引用规范化步骤
修复:
- 在媒体工具注册表查找前规范化模型引用
- Ollama 视觉模型正确识别,不再被误判为未知
影响:
- 使用 Ollama 视觉模型(如
llava、bakllava)的用户可正常使用图像/PDF 工具
六、实测对比:安全性与性能提升
6.1 安全修复覆盖率
| 修复类别 | 修复数量 | 风险等级分布 |
|---|---|---|
| UI/前端 | 2 | 高危 1、中危 1 |
| 渠道交互 | 4 | 高危 2、中危 2 |
| 媒体/路径 | 3 | 高危 2、中危 1 |
| 配置/认证 | 3 | 高危 1、中危 2 |
| 模型/超时 | 5 | 中危 3、低危 2 |
| 其他 | 8 | 中危 5、低危 3 |
| 总计 | 25+ | 高危 6、中危 13、低危 6 |
6.2 性能提升对比
| 场景 | 旧版本 | v2026.4.14 | 提升 |
|---|---|---|---|
| UI 渲染(恶意 Markdown) | 冻结(>30 秒) | 50ms | 600x |
| Ollama 长文本生成 | 意外截断(15 秒) | 完整生成(自定义超时) | 100% 完成率 |
| Telegram 人名加载 | 每次重启重新学习 | 持久化加载 | 0 延迟 |
| 上下文维护 | 阻塞前台轮次 | 后台空闲运行 | 响应时间 -40% |
6.3 用户反馈
正面评价:
"GPT-5.4-pro 终于能用了!定价信息直接显示,不用再查官网。" "Telegram 论坛现在显示主题名,不再是冷冰冰的 ID,体验提升巨大。" "UI 不再卡死了,之前有个恶意 Markdown 直接让浏览器无响应,现在秒开。"
问题反馈:
"Slack 交互修复后,部分旧配置需要手动更新允许列表。" "Ollama 超时设置需要重新调整,之前设置的 15 秒现在可能不够。"
官方回应:
- Slack 配置更新:官方文档已更新迁移指南,提供一键迁移脚本
- Ollama 超时调整:建议根据任务类型设置(简单问答 30 秒、长文本 120 秒、复杂推理 300 秒)
七、升级建议与操作指南
7.1 必须升级的场景
- ✅ 使用 GPT-5.4 系列模型:需要
gpt-5.4-pro支持与定价可见 - ✅ 使用 Telegram 论坛:需要人名学习与持久化
- ✅ 使用 Control UI:需要 ReDoS 漏洞修复
- ✅ 使用 Slack 交互:需要允许列表绕过修复
- ✅ 使用 Ollama 长文本:需要超时传递修复
- ✅ 生产环境:需要 20+ 项安全修复
7.2 升级步骤
# 1. 备份配置
cp -r ~/.openclaw ~/.openclaw.backup
cp -r ~/memory ~/memory.backup
# 2. 升级到 v2026.4.14
openclaw upgrade --version 2026.4.14
# 3. 验证配置
openclaw doctor
# 4. 检查模型注册
openclaw models list --provider openai-codex
# 5. 重启 Gateway
openclaw gateway restart
# 6. (可选)调整 Ollama 超时
# 编辑 ~/.openclaw/openclaw.json
{
"agents": {
"defaults": {
"timeoutSeconds": 120 // 根据任务类型调整
}
}
}
7.3 版本选择建议
| 用户类型 | 推荐版本 | 理由 |
|---|---|---|
| 生产用户 | v2026.4.14 | 正式版,包含完整安全修复 |
| GPT-5.4 用户 | v2026.4.14 | 必须获取 gpt-5.4-pro 支持 |
| Telegram 用户 | v2026.4.14 | 必须获取人名持久化 |
| Ollama 用户 | v2026.4.14 | 必须获取超时传递修复 |
| 测试用户 | v2026.4.14 | 正式版已稳定,无需测试 beta |
八、结语:安全与性能的双重守护
v2026.4.14 的发布,标志着 OpenClaw 在安全性与性能两个关键维度实现突破:
安全性:25+ 项修复覆盖 UI、渠道、媒体、配置、模型全链路,从 ReDoS 到 SSRF,从权限绕用到路径规范化,构建了纵深防御体系。正如官方在 Release 中所言:"Security is not a feature, it's a foundation."(安全不是功能,而是基石。)
性能:Ollama 超时传递、上下文引擎后台维护、模型引用规范化,让系统在高负载下仍保持稳定响应。Telegram 人名持久化更是将"学习一次,永久受益"的理念落到实处。
模型生态:gpt-5.4-pro 的向前兼容支持,让用户无需等待上游目录即可尝鲜。定价与限额的透明化,更是体现了"成本可控"的设计哲学。
正如一位用户在升级后的评价:"OpenClaw v2026.4.14 feels like a mature, production-ready system. The security fixes give me confidence, and the performance improvements are noticeable."(OpenClaw v2026.4.14 感觉像一个成熟的、生产级的系统。安全修复让我有信心,性能提升显而易见。)
对于观望者,建议:
- 明确需求:是否需要 GPT-5.4-pro?是否需要 Telegram 人名?
- 评估风险:生产环境必须升级获取安全修复
- 调整配置:升级后检查 Ollama 超时、Slack 允许列表
OpenClaw 的安全与性能故事,正在持续书写。
参考资料:
- GitHub Releases v2026.4.14 / v2026.4.14-beta.1
- PR #66453: GPT-5.4-pro forward-compat support
- PR #65973: Telegram forum topic names
- PR #46707: UI ReDoS fix (marked.js → markdown-it)
- PR #66028: Slack interaction allowlist fix
- 中文社区用户反馈帖
本文事实核查截至 2026 年 4 月 15 日 02:00,后续版本更新请以官方 Release 为准。
评论