在 Telegram 里掌控 OpenClaw 上下文 - 这些命令你该知道
在 Telegram 里掌控 OpenClaw 上下文 - 这些命令你该知道
用 OpenClaw 在 Telegram 里跟 AI 智能体对话的时候,你有没有想过 - 它每次回复前,脑子里到底装了多少东西?
系统提示词、工具定义、技能列表、对话历史、工具调用结果… 这些全部打包成一个"上下文",每次请求都重新发给 LLM。上下文越大,token 消耗越高,响应越慢,甚至可能触发模型的上下文限制。
好消息是,OpenClaw 在 Telegram 里直接提供了一组命令,让你随时看到上下文的全貌,还能主动管理它。
这些命令怎么来的?
在 Telegram 里,你点击输入框旁边的 "/" 菜单,或者直接输入斜杠,就能看到 OpenClaw 注册的所有命令。
这不是什么黑魔法 - OpenClaw 启动时通过 Telegram Bot API 的 setMyCommands 把命令列表注册到 Telegram。当你点击一个命令,Telegram 把它作为消息发送给 bot,OpenClaw 识别后直接处理并返回结果,不需要经过 LLM。
换句话说,这些命令是"系统级"的,响应几乎是即时的,也不会消耗 token。
/context - 看看上下文里有什么
这是最实用的命令。发送 /context,你会得到一个简要的上下文概览:
包括:
- 系统提示词总大小
- 项目上下文(workspace 文件)大小
- 技能列表占用
- 工具定义占用
/context detail - 逐项分解
想看更细?发 /context detail:
这个模式会列出:
- 每个 workspace 文件的大小和状态 - 是正常注入还是被截断了
- 每个技能的占用 - 哪些技能最占空间
- 每个工具的 schema 大小 - 你可能会惊讶某些工具有多大
我第一次看到 message 工具的 schema 占了 775 token 的时候,确实有点意外。光这一个工具就快 800 token 了。
/context json - 给程序用的
如果你想把数据拿出来做分析,/context json 返回机器可读的 JSON 格式。
/compact - 压缩对话历史
聊了很久之后,对话历史会占掉大量上下文空间。特别是如果智能体做了很多工具调用 - 每个工具的输出都完整保留在上下文里。
这时候手动输入 /compact 发送(这个命令不在 Telegram 的 "/" 菜单里,需要自己打),OpenClaw 会:
- 把旧的对话历史分块摘要
- 保留最近几轮对话不动
- 用摘要替换原始历史
聪明的是,摘要不会丢掉关键信息 - 文件操作记录、工具失败日志、重要决策都会保留。
你还可以带上指令,告诉它保留什么:
/compact 只保留关于 API 设计的讨论
除了手动压缩,OpenClaw 还有一个自动裁剪机制在后台运行:超过一定时间的工具输出会被缩短或替换为占位符,最近几轮的内容受保护。这个不需要你操作,通过配置 agents.defaults.contextPruning 控制。
/new - 开始全新会话
当你想彻底重新开始:
/new
这会清空所有对话历史,生成一个全新的 session。但要注意 - 系统提示词、工具定义、技能列表这些"底座"不会变。如果底座本身就很大,新会话的初始上下文一样不小。
小技巧:/new 之后立刻发 /context,看看干净状态下的基线上下文有多大。这个数字就是你的"最小开销"。
/usage - 看看花了多少 token
想知道当前会话消耗了多少 token?
/usage cost
会显示会话级别和更长周期的 token 用量和费用。
如果你想在每条回复后面都看到 token 用量,可以开启:
/usage tokens
之后每条回复都会附带一个 token 统计的小尾巴。
/verbose - 看到更多细节
开启 verbose 模式:
/verbose on
智能体的回复会包含更多调试信息。对排查问题很有帮助,日常使用可以关掉。
/model - 看看当前用的什么模型
不确定当前在用哪个模型?
/model
它会告诉你当前的 provider 和 model ID。不同模型的 context window 差异很大 - Claude 有 200k,GPT-4 有 128k,有些小模型可能只有 8k 或 16k。了解你的模型上限,才知道上下文够不够用。
你也可以直接切换:
/model anthropic/claude-sonnet-4-5
/think - 调整思考深度
思考(thinking)也会占用上下文和 token:
/think off # 关闭思考
/think low # 轻量思考
/think medium # 中等
/think high # 深度思考
在简单对话里关掉 thinking 可以节省不少 token。需要复杂推理的时候再开。
实际场景:诊断 "prompt too large"
把这些命令串起来,遇到上下文问题时的排查流程:
第一步:看基线
/new
/context detail
看看干净会话的初始上下文有多大。如果这个数字已经接近模型上限 - 问题在底座。
第二步:找大户
在 /context detail 的输出里,找占用最高的项目:
- 工具 schema 太大?→ 考虑用
tools.deny关掉不用的工具 - 技能太多?→ 禁用闲置技能
- AGENTS.md 太长?→ 精简规则
第三步:运行时监控
/usage tokens
开启后观察每轮对话的 token 增长。如果某次工具调用后 token 暴涨 - 可能是工具输出太大。
第四步:压缩
/compact
长对话随时可以压一下。不会丢失关键上下文。
所有上下文相关命令一览
| 命令 | 用途 |
|---|---|
/context | 上下文概览 |
/context detail | 逐项详细分解 |
/context json | JSON 格式输出 |
/compact | 压缩对话历史(手动输入) |
/compact <指令> | 按指令压缩(手动输入) |
/new | 开始全新会话 |
/usage cost | 查看 token 消耗和费用 |
/usage tokens | 每条回复附带 token 统计 |
/verbose on/off | 开关详细模式 |
/model | 查看/切换模型 |
/think off/low/high | 调整思考深度 |
大部分命令都是系统级的,即时响应,不消耗 token。在 Telegram 的 "/" 菜单里可以直接点击。/compact 需要手动输入,不在菜单里。
上下文管理听起来技术感很强,但其实就是一件事:知道你的智能体脑子里装了什么,然后决定该留什么、该丢什么。
OpenClaw 把这个能力直接放在了 Telegram 里。下次跟你的 AI 聊天觉得它反应变慢了,或者突然报错了 - 先发个 /context detail 看看。答案往往就在那里。
相关文章
2026年2月9日
给 Agent 加定时任务?七个你一定会踩的坑
从 OpenClaw 一次关掉 60+ cron issues 的重构中,提炼出 Agent 定时任务系统的七个可靠性教训:亚秒精度陷阱、LLM 调用必须有超时、失败退避不能省、单次任务的死循环、投递上下文会过期、重复管道要合并、以及 —— 不是所有模型都会按你的 schema 传参。
2026年2月5日
OpenClaw 的灵魂设计:SOUL.md 如何让 AI Agent 拥有人格
深入解析 OpenClaw 的创新设计 SOUL.md —— 一个让 AI Agent 拥有人格、边界和灵魂的文件系统,以及它背后的哲学思考。
2026年2月4日
OpenClaw 提示词工程大赏:如何让 AI Agent 更聪明地工作
通过源码分析,揭示 OpenClaw 如何通过模块化提示词架构、动态上下文注入、安全护栏和行为引导,让 AI Agent 更高效、更智能地完成复杂任务。