李嘉厨

6.6K posts

李嘉厨 banner
李嘉厨

李嘉厨

@obless_noob

中文(中国語) / 日本語を勉強しています / 英語とドイツ語全部忘れた | minecraft redstone | 音ゲー | discord server https://t.co/aKutrXucQv 欢迎来玩

Tokyo-to, Japan Katılım Mayıs 2016
417 Takip Edilen178 Takipçiler
Sabitlenmiş Tweet
李嘉厨
李嘉厨@obless_noob·
I think I was #6 before I submitted the lastest score But still 6dig appearing on this rank page seems weird🤣
李嘉厨 tweet media
English
0
0
4
3.1K
李嘉厨 retweetledi
吴二棒
吴二棒@wuerbangbang·
@mofuwo8964 感觉你会对这个感兴趣(
吴二棒 tweet media吴二棒 tweet media吴二棒 tweet media吴二棒 tweet media
中文
3
1
17
1.7K
李嘉厨 retweetledi
Abhinav
Abhinav@Abhinavstwt·
"no screenshotting" mfs with a MacBook:
English
119
296
13.3K
1.6M
李嘉厨
李嘉厨@obless_noob·
一般的chatbot也应该加入这种上下文管理功能 aistudio连个分支都做得特别卡
阿绎 AYi@AYi_AInotes

说实话,这才是Anthropic今年最有价值的更新啊,没有之一!!! 没有堆更大的上下文窗口,也没有吹更厉害的模型能力,Claude Code的核心开发者@trq212 大神直接把大部分人用长上下文的错误方式拍在了大家脸上。 这是官方自己承认1M窗口根本解决不了问题, 真正能让长任务跑通的是主动的会话管理。 而且官方直接给了这张图,一句话道破所有真相,每一次AI输出完毕,都不是一个结束,而是一个五选一的分支决策点。 而99%的人永远只会点那个默认的最差选项:Continue, 剩下的四个按钮,绝大多数人甚至从来都没碰过。 我之前写过Context Rot的问题,很多人半信半疑,现在官方实锤了。 长上下文的性能就是会随着token数线性衰减, 对话越长,模型越笨,注意力越分散,旧内容的干扰越严重, 到最后它会彻底失忆,胡说八道,连自己刚刚说过的话都不认。 你以为是你prompt写的不好,其实是它的脑子已经转不动了🤣 这次更新最狠的地方,是它直接把选择权交还给了你, Continue:继续在错误的泥潭里越陷越深。 Rewind:及时止损,退回到上一个正确的节点。 /clear:保留核心结论,扔掉所有没用的中间垃圾。 /compact:让模型自己总结上下文,轻装上阵。 Subagent:把脏活累活隔离出去,不要污染主上下文。 没啥黑魔法,就是这么简单的五个选项, 但就是这五个选项,能把你长任务的成功率,从10%拉到90%以上。 评论区有一个评论说的特别好, “我不想用compact,它删的太多了 我想要它精准删掉那些没用的工具调用输出。” 我理解这也是目前这个功能最大的局限性, 现在的compact还是全量压缩,粒度太粗。 但问题不大,这已经是目前最好的解决方案了。 而且你可以不用compact,用/clear,自己手动提炼核心结论,慢一点,但绝对精准。 最有意思的是行业信号,之前所有人都在卷谁的上下文窗口更大,2M,4M,8M,好像越大越厉害。 现在Anthropic带头说,别卷了,没用🤣 窗口再大,你不会管理,最后还是一堆垃圾。 这相当于直接给过去两年的长上下文军备竞赛,泼了一盆冷水。 真正的竞争,已经从能装多少变成了能管好多少了。 我还是那个观点,这套东西根本不止适用于AI,它就是一套完美的个人认知操作系统运行手册, 我们的大脑就是一个有限上下文的模型, Context Rot就是我们的认知过载和信息焦虑, Rewind就是及时止损,不要在错误的方向上继续投入, Compact就是知识压缩,把厚书读薄, Clear就是主动遗忘,扔掉没用的草稿和中间过程, Subagent就是分工授权,不要什么事都自己干。 很多人问我,人和人用AI的差距到底在哪,现在答案很明确了, 别人还在傻呵呵的一条对话聊到底,跟失忆的模型反复拉扯,你已经在每一个节点,主动做决策,把上下文打理的干干净净。 别人的会话越跑越慢,越跑越笨,你的会话永远轻装上阵,永远保持最高的性能,这个差距,会随着时间指数级放大。 最后给大家一个今天就能用的建议。 现在就去打开Claude Code,输入/usage, 看看你自己的token使用曲线,找到你自己的Context Rot阈值, 比如我自己是到300k token左右,模型就开始明显变笨,以后每次快到这个数,就主动compact或者clear ,别等它傻了再补救,那时候已经晚了。

中文
0
0
1
92
李嘉厨 retweetledi
李嘉厨 retweetledi
陳少4.0
陳少4.0@chan19890604t04·
這尾巴要用肛塞固定才酷炫😈😈😈
陳少4.0 tweet media
日本語
45
29
1.1K
73.2K
李嘉厨 retweetledi
雲鳩
雲鳩@Cldeop·
看懂的这辈子有了
雲鳩 tweet media
中文
126
39
831
39.4K
李嘉厨
李嘉厨@obless_noob·
@nashy_1202 @YLDLZN 我就是把我了解到的情况说出来怎么就瞎说了?你这么知道怎么没见你提到什么有内容的信息?
中文
1
0
1
115
伊利丹
伊利丹@YLDLZN·
真惨。 还是国女吃得好啊。一千多门票的见面会,比个心都不愿意。
伊利丹 tweet media
中文
253
11
957
479.2K
李嘉厨
李嘉厨@obless_noob·
@nashy_1202 @YLDLZN 相当于1400只能聊一分钟,当然算偏贵的,尤其看在她们搞特典会0人这种自虐梗卖惨的份上。别觉得700块买个ブロマイド有多便宜
日本語
0
0
0
44
李嘉厨 retweetledi
李嘉厨
李嘉厨@obless_noob·
@hegosuki 自带磨皮了吗,但我感觉清晰的原图带出来很多面部上沟壑的细节也挺好看的。。
中文
0
0
0
15
李嘉厨
李嘉厨@obless_noob·
@hegosuki 但切本身也是无修啊,让发切但不让发写メ是什么道理
日本語
2
0
0
19
あすか
あすか@hegosuki·
@obless_noob 规矩社会懂不懂啊() 我这边很多切也不让发
中文
1
0
0
23
李嘉厨 retweetledi
fire images
fire images@fireimages·
fire images tweet media
ZXX
27
1.3K
26.9K
148.2K
ジョニー
ジョニー@johnny_onpuchan·
我高中时用它做作图。当时也上过3D CAD课 还不明白这高中为什么不存在2D CAD课
ジョニー tweet media
中文
5
0
23
2.1K
李嘉厨
李嘉厨@obless_noob·
之前教php的那个老古董今天新课怎么直接讲起来next+pg了草
中文
0
0
0
52
李嘉厨 retweetledi
ひで
ひで@999hidehide999·
@champeemanb wwwは日本語やから lolやで英語では
日本語
2
14
1.3K
53.7K
李嘉厨 retweetledi
ちゃんぴーまん
ちゃんぴーまん@champeemanb·
長男の英単語テスト。何してんねんwww
ちゃんぴーまん tweet media
日本語
168
6.2K
102.1K
2M
李嘉厨
李嘉厨@obless_noob·
@shuia666 @YLDLZN 哦700还是给个ブロマイド的,但之前去买杂志的时候特典直接送了一大叠ブロマイド,这玩意也不是很值钱
日本語
0
0
1
177
李嘉厨
李嘉厨@obless_noob·
@shuia666 @YLDLZN 我只是正常说明市场价,在当前市场环境下700块并不算真正最便宜的那档选择,与常见最便宜的1000块1分钟聊天+チェキ,或者一般地偶常见的1500~2000块2分钟聊天+デコチェキ之类的比,区区700日元只能聊30秒,甚至没有拍立得买就显得很鸡肋了。况且一小时时薪只能和什么臭底边聊30秒当然很贵。
日本語
2
0
15
1.5K
李嘉厨
李嘉厨@obless_noob·
@rin_1023uu 太富了,这么久一直没用过通学定期吗
中文
0
0
0
74