<?xml version="1.0" encoding="utf-8" standalone="yes"?><rss version="2.0" xmlns:atom="http://www.w3.org/2005/Atom"><channel><title>效率 on Chen Shungen</title><link>https://chenshungen.cn/tags/%E6%95%88%E7%8E%87/</link><description>Recent content in 效率 on Chen Shungen</description><generator>Hugo</generator><language>zh-cn</language><lastBuildDate>Fri, 08 May 2026 00:00:00 +0000</lastBuildDate><atom:link href="https://chenshungen.cn/tags/%E6%95%88%E7%8E%87/index.xml" rel="self" type="application/rss+xml"/><item><title>RTK：高性能 CLI 代理，LLM token 消耗直降 60-90%</title><link>https://chenshungen.cn/blog/rtk-token-savings/</link><pubDate>Fri, 08 May 2026 00:00:00 +0000</pubDate><guid>https://chenshungen.cn/blog/rtk-token-savings/</guid><description>&lt;blockquote>
&lt;p>不是软文，不是官方枪手，就是一个被 token 账单逼疯了的开发者的自救记录。&lt;/p>&lt;/blockquote>
&lt;h2 id="前置背景我为什么开始折腾这个">前置背景：我为什么开始折腾这个&lt;/h2>
&lt;p>我常用的 AI 环境是 OpenClaw 接 DeepSeek V4 模型，按 API token 计费。一开始没太在意 token 消耗，觉得 DeepSeek 便宜嘛，随便用。后来仔细分析才发现——token 消耗里至少一半花在了 CLI 命令的输出上，模型根本没用到这些信息。&lt;/p>
&lt;p>回过头看一条典型的调试流程：&lt;/p>
&lt;blockquote>
&lt;p>我：帮我修一下这个登录页的 bug
OpenClaw → 执行 &lt;code>ls -la&lt;/code>（800 tokens 的权限位和日期）→ 执行 &lt;code>git status&lt;/code>（400 tokens 的 git 提示信息）→ 读三个文件（每个几百 tokens）→ 执行 &lt;code>git diff&lt;/code>（2500 tokens）→ 改代码 → 跑测试（5000 tokens 的全量日志）→ &lt;code>git commit&lt;/code>（带一大段 git config 提示）&lt;/p>&lt;/blockquote>
&lt;p>一条指令下来，光命令输出就灌进去小一万 token。问题是 DeepSeek 根本不需要知道 &lt;code>drwxr-xr-x&lt;/code> 或者 git commit 之后那段&amp;quot;请设置 user.name&amp;quot;的废话。&lt;/p>
&lt;p>我需要一个东西，在我和模型之间拦一道，把噪音滤掉再喂给 AI。&lt;/p>
&lt;h2 id="rtk-是什么">RTK 是什么？&lt;/h2>
&lt;p>&lt;a href="https://github.com/rtk-ai/rtk">RTK&lt;/a>（Rust Token Killer）是个单二进制 CLI 工具，用 Rust 写的，安装就一个文件。它做的事情很简单：&lt;/p></description></item></channel></rss>