Theigrams

408 posts

Theigrams

Theigrams

@Theigrams1

Keep in thinking, love math and computer science

เข้าร่วม Aralık 2019
238 กำลังติดตาม73 ผู้ติดตาม
Theigrams
Theigrams@Theigrams1·
@fkysly 把工资也换算成美元呢?
中文
1
0
1
59
马天翼
马天翼@fkysly·
现在 AI 订阅充值多了之后,感觉自己习惯美元计价了。 现在把国内价格换算一下美元,再想想自己的 AI 订阅价格,感觉都没那么贵了。
中文
3
0
3
6.9K
Theigrams
Theigrams@Theigrams1·
@lxfater 珍惜感情,少吵架,吵多了,就回不去了
中文
0
0
8
424
铁锤人
铁锤人@lxfater·
已经结婚的人,能给我这种没有结婚的人一点人生忠告吗?
中文
353
7
133
75.3K
disinfeqt
disinfeqt@disinfeqt·
Claude Code 的 max effort + fast mode 真是用过就回不去了。
日本語
4
0
11
6.2K
Theigrams
Theigrams@Theigrams1·
中转站是超级暴利的,以1/10的价格卖你token他还有钱赚,因为他在token方面的开销几乎为0,主要成本就是买服务器。举个例子,很多人卖Claude的API,成本价为0.5块一刀,但能卖到3块一刀,如果搞退款流甚至0成本。 还有chatanywhere这种把Dorio逆向卖7块一刀的,很多小白照买不误,这种韭菜谁不想割
WquGuru🦀@wquguru

一夜之间中转暴富的话题很多,给个真实数据:国内最早一批,大概2025年8月开始,做Claude Code中转的站长,两个月从0做到500万纯利 更crazy的是,这是从老板自己单打独斗开始,兼顾技术和客服角色,初始用户不到50,两个月做到700用户 token需求带来的规模性利润,确实是难以想象的,曾经我也想过这个生意,但是又想这时间拿来做产品ROI更高,然后就是又一个“我原来可以xxx的故事了”😂

中文
0
0
1
254
奶昔🥤
奶昔🥤@realNyarime·
又是早八,看到库迪这个招牌,第一反应居然是:(Cotti Coffee👉🏻Claude Code) 大脑自动补全了CC,甚至还脑补了Claude的图标,想着今天也要喝一杯克劳德吗? 我甚至想冲进去问老板: 一杯咖啡需要多少Token? 这里的咖啡机,是不是调用的 Claude 4.6 Opus? 可以用代码控制温度和浓度吗?
奶昔🥤 tweet media奶昔🥤 tweet media
中文
7
0
66
7.8K
Theigrams
Theigrams@Theigrams1·
@dotey 都是5分钟,Max好像也调回来了,web端也是5分钟,很容易过期。codex是20分钟以上
中文
0
0
0
585
宝玉
宝玉@dotey·
请教两个问题: 1. Claude Code 的 Prompt Caching 过期时间是多少?5分钟还是 1 小时? 2. 基于这样的 Caching 过期时间设置,怎么样可以更好的节约 token 成本? Codex CLI / Claude.ai 又分别是多少? 参考文档:platform.claude.com/docs/en/build-…
中文
23
7
94
45.5K
Theigrams
Theigrams@Theigrams1·
AK太绝了,每个推都能命中我正在踩的坑
Andrej Karpathy@karpathy

LLM Knowledge Bases Something I'm finding very useful recently: using LLMs to build personal knowledge bases for various topics of research interest. In this way, a large fraction of my recent token throughput is going less into manipulating code, and more into manipulating knowledge (stored as markdown and images). The latest LLMs are quite good at it. So: Data ingest: I index source documents (articles, papers, repos, datasets, images, etc.) into a raw/ directory, then I use an LLM to incrementally "compile" a wiki, which is just a collection of .md files in a directory structure. The wiki includes summaries of all the data in raw/, backlinks, and then it categorizes data into concepts, writes articles for them, and links them all. To convert web articles into .md files I like to use the Obsidian Web Clipper extension, and then I also use a hotkey to download all the related images to local so that my LLM can easily reference them. IDE: I use Obsidian as the IDE "frontend" where I can view the raw data, the the compiled wiki, and the derived visualizations. Important to note that the LLM writes and maintains all of the data of the wiki, I rarely touch it directly. I've played with a few Obsidian plugins to render and view data in other ways (e.g. Marp for slides). Q&A: Where things get interesting is that once your wiki is big enough (e.g. mine on some recent research is ~100 articles and ~400K words), you can ask your LLM agent all kinds of complex questions against the wiki, and it will go off, research the answers, etc. I thought I had to reach for fancy RAG, but the LLM has been pretty good about auto-maintaining index files and brief summaries of all the documents and it reads all the important related data fairly easily at this ~small scale. Output: Instead of getting answers in text/terminal, I like to have it render markdown files for me, or slide shows (Marp format), or matplotlib images, all of which I then view again in Obsidian. You can imagine many other visual output formats depending on the query. Often, I end up "filing" the outputs back into the wiki to enhance it for further queries. So my own explorations and queries always "add up" in the knowledge base. Linting: I've run some LLM "health checks" over the wiki to e.g. find inconsistent data, impute missing data (with web searchers), find interesting connections for new article candidates, etc., to incrementally clean up the wiki and enhance its overall data integrity. The LLMs are quite good at suggesting further questions to ask and look into. Extra tools: I find myself developing additional tools to process the data, e.g. I vibe coded a small and naive search engine over the wiki, which I both use directly (in a web ui), but more often I want to hand it off to an LLM via CLI as a tool for larger queries. Further explorations: As the repo grows, the natural desire is to also think about synthetic data generation + finetuning to have your LLM "know" the data in its weights instead of just context windows. TLDR: raw data from a given number of sources is collected, then compiled by an LLM into a .md wiki, then operated on by various CLIs by the LLM to do Q&A and to incrementally enhance the wiki, and all of it viewable in Obsidian. You rarely ever write or edit the wiki manually, it's the domain of the LLM. I think there is room here for an incredible new product instead of a hacky collection of scripts.

中文
0
0
0
37
Theigrams
Theigrams@Theigrams1·
@leifuchen @dotey 现代有很多文件系统,复制是不额外占空间的,例如macOS的afps。
中文
1
0
0
43
leifu _/
leifu _/@leifuchen·
宝玉老师好,对这个问题我有不同看法,monorepo大才更应该用worktree而不是多clone。 Worktree只多出一份工作树文件,共享同一个.git目录。多clone则是每份都要完整复制.git,monorepo越大,多clone的磁盘和clone时间代价越高。 如果真的大到worktree都嫌慢(checkout慢、文件多),正确的方向是sparse checkout + worktree组合:每个worktree只checkout自己需要的子目录。
中文
4
0
13
4.6K
宝玉
宝玉@dotey·
没必要worktree,可以 clone 几份放在固定的目录,轮着用就够了,每次pull最新然后checkout一个新的branch,完成后提PR合并到main
hyspace@hyspace

@dotey 请教monorepo太大导致没法git worktree,如何更好的并行开发?

中文
58
9
122
180.2K
勃勃OC
勃勃OC@bboczeng·
这是我见过最尬的科普博主,自己没什么本事,也不懂什么科学知识,估计都不是什么理科毕业 长得一副微商营销的老板样 关键是还特别喜欢炒冷饭 真的无语,墙内还有人看他吗? 看完Veritasium,你还看得下去这玩意? 还不全网屏蔽了? 😂😂😂
勃勃OC tweet media
中文
47
1
115
33.3K
Theigrams
Theigrams@Theigrams1·
@Clarrycy 这不是tex shop插件吗?反重力会自带一些插件
中文
0
0
1
80
Clarrycy (探索中)
Antigravity 竟然支持了 LaTeX 功能 🤔 看起来还挺实用的!
Clarrycy (探索中) tweet media
中文
4
0
28
2.7K
Theigrams
Theigrams@Theigrams1·
@imwsl90 这是好事啊,当 token 比人类贵,就不用担心失业了
中文
3
0
132
24.2K
卫斯理
卫斯理@imwsl90·
笑死了 整个外包项目报价 5万,烧 token 7千....
卫斯理 tweet media
中文
86
10
472
324.3K
dontbesilent
dontbesilent@dontbesilent·
“找到天赋”、“发现潜能” 都是骗小孩的说辞 小红书用户最喜欢躺床上找到自己的天赋 奥运金牌是博尔特靠训练拼出来的,不是他在闲鱼上找到的
中文
17
7
193
14.3K
Theigrams
Theigrams@Theigrams1·
@yetone 评论区看得人麻了,又不懂计算机,又懒得看文档,连一行代码复制粘贴都嫌麻烦,毁灭吧
中文
0
0
0
959
yetone
yetone@yetone·
你们在新时代才开始用 Terminal 的人一定要知道 terminfo 是啥呀。不要用上了 Ghostty 这种现代 Terminal Emulator 后就吐槽 SSH 到 server 中连 color 都没有了这种问题了。已经看到不止一个人在吐槽这个问题了。
中文
32
39
507
84.7K
Panda
Panda@Jiaxi_Cui·
至今没有见过有人能把 $200 的 Codex 额度用光
中文
66
1
106
67.4K
Theigrams
Theigrams@Theigrams1·
@xxxjzuo 干货……我只看到了 AI 生成的 slop,缓存分成静态动态都吹半天😓,把 git status 塞进系统 prompt 里是什么好设计?标题说比其他好用,那到底哪里比 codex 强?整篇文章全是 AI 生成的,毫无自己的 taste,含人量为 0
中文
0
0
14
708
Jason Zuo
Jason Zuo@xxxjzuo·
各种刷屏的关于 cc 泄漏源码内容中,难得的干货好文 Claude Code 好用,除了 opus 模型本身的能力 整体架构的设计哲学,才是真正保证它稳定➕高质量输出的关键
Yuker@YukerX

x.com/i/article/2038…

中文
12
151
718
230.3K
Theigrams
Theigrams@Theigrams1·
很多连 Knuth-Plass 算法都没听说过的“程序员”看了个图片就高潮了,以为是什么底层突破。事实上 Pretext 并没有提出新的排版算法,甚至连用 canvas.measureText() 绕过 reflow 测量文本的技巧也不是第一个发明的,bezoerb/text-metrics 早在 2016 年就提出来了,API 甚至更完整。
GIF
Cyandev@unixzii

有时候真的很羡慕前端圈,有太多叙事讲了。同样的效果,用原生 Core Text 几行代码就能搞定,这么多年大家都觉得没啥稀奇的。前端就因为浏览器不暴露 frameset 能力需要自己分词断行,然后用 measureText 测量 run,然而底层依然还是 Core Text。但就是有流量,可能还是戴着镣铐跳舞的故事更励志吧。

中文
0
0
1
151
huangyihe
huangyihe@huangyihe·
之前对比中美两国AI的时候,总说中国的强项是做应用。那么发展了三年,中国做出哪些牛逼的AI应用了吗?好像没有。上一波火爆的Chatbot形态是国外先做出来的。这一次火爆的OpenClaw也是别人做出来的。
中文
19
1
7
7.7K
Theigrams
Theigrams@Theigrams1·
@unixzii 打开 Word,插入一个图标,选择「文字环绕」,拖动图标。就能实现类似效果,所以我很奇怪,这么多人是没有用过 Word 吗?
中文
1
0
2
3.6K
Cyandev
Cyandev@unixzii·
有时候真的很羡慕前端圈,有太多叙事讲了。同样的效果,用原生 Core Text 几行代码就能搞定,这么多年大家都觉得没啥稀奇的。前端就因为浏览器不暴露 frameset 能力需要自己分词断行,然后用 measureText 测量 run,然而底层依然还是 Core Text。但就是有流量,可能还是戴着镣铐跳舞的故事更励志吧。
中文
56
31
629
128.3K
Theigrams
Theigrams@Theigrams1·
@hiheimu @legacyvps claude2 时期的老号,平时免费造怎么都没事,一开 Pro 第二天秒封
中文
1
0
0
1.1K
赖叔 | LaiShu.ai
赖叔 | LaiShu.ai@hiheimu·
一直纠结要不要开个 Claude 会员 不开就是怕被封了很麻烦 看了小墨同学 @legacyvps 的帖子后 觉得我好像可以试试? 他的帖子说了各种变量对于封号的影响 总结起来就是: 老号、老邮箱,别乱用,正常问题不大! 详细内容如图
赖叔 | LaiShu.ai tweet media赖叔 | LaiShu.ai tweet media
中文
28
7
123
23.8K