李嘉厨
6.6K posts

李嘉厨
@obless_noob
中文(中国語) / 日本語を勉強しています / 英語とドイツ語全部忘れた | minecraft redstone | 音ゲー | discord server https://t.co/aKutrXucQv 欢迎来玩

说实话,这才是Anthropic今年最有价值的更新啊,没有之一!!! 没有堆更大的上下文窗口,也没有吹更厉害的模型能力,Claude Code的核心开发者@trq212 大神直接把大部分人用长上下文的错误方式拍在了大家脸上。 这是官方自己承认1M窗口根本解决不了问题, 真正能让长任务跑通的是主动的会话管理。 而且官方直接给了这张图,一句话道破所有真相,每一次AI输出完毕,都不是一个结束,而是一个五选一的分支决策点。 而99%的人永远只会点那个默认的最差选项:Continue, 剩下的四个按钮,绝大多数人甚至从来都没碰过。 我之前写过Context Rot的问题,很多人半信半疑,现在官方实锤了。 长上下文的性能就是会随着token数线性衰减, 对话越长,模型越笨,注意力越分散,旧内容的干扰越严重, 到最后它会彻底失忆,胡说八道,连自己刚刚说过的话都不认。 你以为是你prompt写的不好,其实是它的脑子已经转不动了🤣 这次更新最狠的地方,是它直接把选择权交还给了你, Continue:继续在错误的泥潭里越陷越深。 Rewind:及时止损,退回到上一个正确的节点。 /clear:保留核心结论,扔掉所有没用的中间垃圾。 /compact:让模型自己总结上下文,轻装上阵。 Subagent:把脏活累活隔离出去,不要污染主上下文。 没啥黑魔法,就是这么简单的五个选项, 但就是这五个选项,能把你长任务的成功率,从10%拉到90%以上。 评论区有一个评论说的特别好, “我不想用compact,它删的太多了 我想要它精准删掉那些没用的工具调用输出。” 我理解这也是目前这个功能最大的局限性, 现在的compact还是全量压缩,粒度太粗。 但问题不大,这已经是目前最好的解决方案了。 而且你可以不用compact,用/clear,自己手动提炼核心结论,慢一点,但绝对精准。 最有意思的是行业信号,之前所有人都在卷谁的上下文窗口更大,2M,4M,8M,好像越大越厉害。 现在Anthropic带头说,别卷了,没用🤣 窗口再大,你不会管理,最后还是一堆垃圾。 这相当于直接给过去两年的长上下文军备竞赛,泼了一盆冷水。 真正的竞争,已经从能装多少变成了能管好多少了。 我还是那个观点,这套东西根本不止适用于AI,它就是一套完美的个人认知操作系统运行手册, 我们的大脑就是一个有限上下文的模型, Context Rot就是我们的认知过载和信息焦虑, Rewind就是及时止损,不要在错误的方向上继续投入, Compact就是知识压缩,把厚书读薄, Clear就是主动遗忘,扔掉没用的草稿和中间过程, Subagent就是分工授权,不要什么事都自己干。 很多人问我,人和人用AI的差距到底在哪,现在答案很明确了, 别人还在傻呵呵的一条对话聊到底,跟失忆的模型反复拉扯,你已经在每一个节点,主动做决策,把上下文打理的干干净净。 别人的会话越跑越慢,越跑越笨,你的会话永远轻装上阵,永远保持最高的性能,这个差距,会随着时间指数级放大。 最后给大家一个今天就能用的建议。 现在就去打开Claude Code,输入/usage, 看看你自己的token使用曲线,找到你自己的Context Rot阈值, 比如我自己是到300k token左右,模型就开始明显变笨,以后每次快到这个数,就主动compact或者clear ,别等它傻了再补救,那时候已经晚了。



























