RC

3.3K posts

RC banner
RC

RC

@ShunrangC

Entrou em Ağustos 2012
39 Seguindo118 Seguidores
RC retweetou
Joshua Xu
Joshua Xu@joshua_xu_·
I want to share four of the most frequent skills I use on Claude. They've been significantly helpful for me to digest documents and data. Feel free to install and try them out. • diagram it — Reads any content → picks best diagram type (flowchart, structural, timeline, tree, concept map) → renders an Excalidraw diagram inline in chat • nano this — Reads an uploaded doc → sends to Gemini image generation with Swiss Pulse design prompt → returns a polished infographic PNG • vis it — Reads any content → picks best visual format (chart, timeline, explainer, pipeline, comparison) → renders an interactive widget inline in chat • ver it — Reads any content → builds Swiss Pulse interactive HTML (hero metric, stats, Chart.js graph, dark mode) → returns shareable link To use any of them, just type the command + paste a URL, attach a doc, or reference something in conversation. That's it. Example:
Joshua Xu tweet media
English
14
7
181
13.6K
RC retweetou
李志 | Rational Investing
李志 | Rational Investing@LZRationalnvest·
段永平最近貌似在泡泡玛特上有所动作了,看到网友分析他提到泡泡玛特的那一天IBKR的买入量特别大,我猜已经建仓了。 他的逻辑倒还是之前那一套: 第一,right business。说自己专门去美国Westfield的泡泡玛特门店蹲了,60平的小店90%都是老外,华人才占10%。这直接打破了泡泡玛特就是中国人自嗨的偏见,老段说这才是中国品牌国际化的先驱,毕竟他做了一辈子消费,太懂中国品牌出海有多难了。 第二,right people。他说看完王宁的书《因为独特》,欣赏王宁,觉得这小伙子年纪轻轻就懂慢就是快,跟自己理念完全同频,是能把公司做长久的人,还说以后说不定能成朋友。 第三,right price。最近泡泡玛特股价从高点跌下来这么多,估值到了他认可的安全区间。 其实大家也没必要捧一踩一,或者盲目跟风去买,大家发现没,这些严肃投资者都是用自己的调研和投资框架,把一个曾经看不懂的生意,彻底看明白了才下手,而不是跟风炒概念。 毕竟投资要独立思考,不要把谁当神,不要把谁说的话当真理。
李志 | Rational Investing tweet media李志 | Rational Investing tweet media
中文
12
12
79
37.5K
RC retweetou
Andrej Karpathy
Andrej Karpathy@karpathy·
LLM Knowledge Bases Something I'm finding very useful recently: using LLMs to build personal knowledge bases for various topics of research interest. In this way, a large fraction of my recent token throughput is going less into manipulating code, and more into manipulating knowledge (stored as markdown and images). The latest LLMs are quite good at it. So: Data ingest: I index source documents (articles, papers, repos, datasets, images, etc.) into a raw/ directory, then I use an LLM to incrementally "compile" a wiki, which is just a collection of .md files in a directory structure. The wiki includes summaries of all the data in raw/, backlinks, and then it categorizes data into concepts, writes articles for them, and links them all. To convert web articles into .md files I like to use the Obsidian Web Clipper extension, and then I also use a hotkey to download all the related images to local so that my LLM can easily reference them. IDE: I use Obsidian as the IDE "frontend" where I can view the raw data, the the compiled wiki, and the derived visualizations. Important to note that the LLM writes and maintains all of the data of the wiki, I rarely touch it directly. I've played with a few Obsidian plugins to render and view data in other ways (e.g. Marp for slides). Q&A: Where things get interesting is that once your wiki is big enough (e.g. mine on some recent research is ~100 articles and ~400K words), you can ask your LLM agent all kinds of complex questions against the wiki, and it will go off, research the answers, etc. I thought I had to reach for fancy RAG, but the LLM has been pretty good about auto-maintaining index files and brief summaries of all the documents and it reads all the important related data fairly easily at this ~small scale. Output: Instead of getting answers in text/terminal, I like to have it render markdown files for me, or slide shows (Marp format), or matplotlib images, all of which I then view again in Obsidian. You can imagine many other visual output formats depending on the query. Often, I end up "filing" the outputs back into the wiki to enhance it for further queries. So my own explorations and queries always "add up" in the knowledge base. Linting: I've run some LLM "health checks" over the wiki to e.g. find inconsistent data, impute missing data (with web searchers), find interesting connections for new article candidates, etc., to incrementally clean up the wiki and enhance its overall data integrity. The LLMs are quite good at suggesting further questions to ask and look into. Extra tools: I find myself developing additional tools to process the data, e.g. I vibe coded a small and naive search engine over the wiki, which I both use directly (in a web ui), but more often I want to hand it off to an LLM via CLI as a tool for larger queries. Further explorations: As the repo grows, the natural desire is to also think about synthetic data generation + finetuning to have your LLM "know" the data in its weights instead of just context windows. TLDR: raw data from a given number of sources is collected, then compiled by an LLM into a .md wiki, then operated on by various CLIs by the LLM to do Q&A and to incrementally enhance the wiki, and all of it viewable in Obsidian. You rarely ever write or edit the wiki manually, it's the domain of the LLM. I think there is room here for an incredible new product instead of a hacky collection of scripts.
English
2.1K
4.8K
42.5K
11.8M
RC retweetou
Barret李靖
Barret李靖@Barret_China·
看了一晚上 Claude Code 泄露的代码,结合常见的记忆管理框架,把记忆模块做了一些分析。 Tulving 老爷子在 1972 年提出了记忆系统的框架设计,至今仍在广泛使用,他把记忆分为三类:1)情境记忆(episodic memory),我干了啥,用来记录过去;2)语义记忆(semantic memory),我知道啥,用来提炼规律;3)以及程序化记忆(procedural memory),我会做啥,用来决定行动。 这些记忆之间是存在相关性的,例如我经历的事情(情景记忆)会慢慢遗忘细节,储存在脑海中的是提炼后的规律和知识,也就是压缩成了语义记忆;而我知道的东西又会逐渐内化为行动的指引,变成一种“知道怎么做”的能力,这就是程序化记忆;程序化记忆反过来又会指导行动,从而产生新的经历。三者构成了一个不断循环的过程:经历 → 知识 → 技能 → 新的经历。 Claude Code Memory 在这几块都有对应的实践,例如每轮次的对话它会以 jsonl 格式做储存,这是情境记忆;同时在对话过程中还会有 SessionMemory 做实时蒸馏,相当于一边发生一边做初步整理。 每轮次结束后,它会 fork 出一个子 Agent(extractMemories)去提取值得持久化的内容,写入带 YAML 头的 MD 文件,这一层对应语义记忆,把零散对话压缩成可复用的知识。更有意思的是它还有一个 autoDream 机制,会在后台做整合和修剪,把碎片化的内容重新组织、合并、更新,这一步很像记忆的巩固过程。 很多框架都没有实现程序化记忆,而 Claude Code 做了。它有一个 feedback 的记忆类型,不仅记录了不要做什么(用户的纠正),还会记录哪些做法是对的(用户的确认),这些都是经验化的技能记录。多数系统只考虑负反馈,Claude Code 兼顾了正向确认,让 Agent 不至于越学越保守,这一点非常关键。 相比 LangMem/Mem0/Zep/EverMemOS/MemOS 这些框架,Claude Code 肯定弱的像个菜鸡😄。它有很多能力是明显不足的,例如:不支持语义化召回(用 LLM 扫 metadata 代替向量检索,上限 200 个文件)、遗忘策略比较粗(24 小时 or 5 轮对话触发整合)、无关联网络(记忆是孤立文件),等等。 真要像 EverMemOS/MemOS 那样追求全量记忆,工程和架构复杂度会直线上升,就拿 EverMemOS 来说,光基础设施就包含了 MongoDB/Elasticsearch/Milvus/Redis,更别说其他的附带依赖了。这类框架更适合做个人长期记忆管理。 另外也去对比了下 OpenClaw,它的记忆实现也非常有意思。它不追求全量记忆,而是优先解决“记忆什么时候该被用”。它把记忆拆成了三层:全局层、工作区层、任务层,逐层收敛,只在必要的时候才把上下文拉进来。 在 OpenClaw 眼里,记忆不是资产,正确使用记忆的能力才是。所以它的设计更侧重于重建临时的记忆网络。 放在这个视角下再去看 Claude Code,就会发现它其实选了一条更偏执行的路径。 对它来说,看清问题全貌也没那么重要。它解决问题的方式,更像人类工程师 debug,一边看、一边改、一边跑、一边修正,在行动中逐步逼近答案。 在这个过程中,Memory 的作用就是一个“防遗忘机制”,保证关键上下文不会在多轮试错中丢失。
中文
16
150
695
65.7K
RC retweetou
CyberCat
CyberCat@CyberCatX·
🔥 27.5 亿的AI制药重磅合作:礼来 & @InSilicoMeds (英矽智能) Incilico 是我最看好的一家AI 制药公司。 英矽智能利用AI已生成至少28种药物候选物,其中近一半进入临床试验阶段。小分子AI发现平台直接将登陆临床时间缩减50%以上,他家的renosertib 目前在二期临床上展现了很不错的安全性和有效性,有望成为第一个被FDA批准的AI药物。我还记得两年前啃了他家10多篇AI制药的论文做Journal club。 和礼来的合作是一项“软件授权 + 单一/多管线授权 + 指定靶点联合研发”的混合模式合作。此次交易重点是其中一款(或一组)口服管线。推测可能涉及GLP-1R靶点相关长效口服药物。 礼来则通过巨额投入加速AI驱动管线扩张。交易金额也刷新了英矽智能此前最大合作记录(2022年与Sanofi的12亿美元)。
CyberCat tweet mediaCyberCat tweet media
中文
3
1
33
5.7K
RC retweetou
Ray Wang
Ray Wang@wangray·
技术再好,讲不清楚就等于没有 Patrick Winston 教授这个讲座我看了不下三遍,做产品、做内容、见客户,说话是最被低估的杠杆 他在 MIT 将这个课超过40年,这是最后一次录像,他于2019年去世了 他的核心观点:演讲能力不是天赋,是可以训练的手艺 一小时看完,值得
中文
67
589
2.3K
179.1K
RC retweetou
Y Combinator
Y Combinator@ycombinator·
A very special guest on this episode of the Lightcone! @bcherny, the creator of Claude Code, sits down to share the incredible journey of developing one of the most transformative coding tools of the AI era. 00:00 Intro 01:45 The most surprising moment in the rise of Claude Code 02:38 How Boris came up with the idea for Claude Code 05:38 The elegant simplicity of terminals 07:09 The first use cases 09:00 What’s in Boris’ CLAUDE.md? 11:29 How do you decide the terminal’s verbosity? 15:44 Beginner’s mindset is key as the models improve 18:56 Hyper specialists vs hyper generalists 21:51 The vision for Claude teams 23:48 Subagents 25:12 A world without plan mode? 28:38 Tips for founders to build for the future 30:07 How much life does the terminal still have? 30:57 Advice for dev tool founders 32:11 Claude Code and TypeScript parallels 35:34 Designing for the terminal was hard 37:36 Other advice for builders 40:31 Productivity per engineer 41:36 Why Boris chose to join Anthropic 44:46 How coding will change 46:22 Outro
English
113
507
3.3K
1.3M
RC retweetou
Andrej Karpathy
Andrej Karpathy@karpathy·
oh yeah i should have linked autoresearch probably github.com/karpathy/autor… (you don't "use it" directly, it's just a recipe/idea - give it to your agent and apply to what you care about.) and the tweet about it that went mini-viral over the weekend with more context x.com/karpathy/statu…
English
93
208
2.5K
312K
RC retweetou
Anthropic
Anthropic@AnthropicAI·
New on the Engineering Blog: How we designed Claude Code auto mode. Many Claude Code users let Claude work without permission prompts. Auto mode is a safer middle ground: we built and tested classifiers that make approval decisions instead. Read more: anthropic.com/engineering/cl…
English
404
606
4.2K
1.6M
RC retweetou
Shann³
Shann³@shannholmberg·
Karpathy's AutoResearch is changing how campaigns get optimized and most marketers haven´t heard of it yet. Ole Lehmann tested it on landing page copy, 56% → 92% pass rate overnight. here´s how it works for marketing / skills 🧵
Shann³ tweet media
Ole Lehmann@itsolelehmann

x.com/i/article/2033…

English
61
358
3.8K
1M
RC retweetou
宝玉
宝玉@dotey·
Claude Code 新增 auto 模式 Claude Code 推出了一种新的权限管理方式——auto 模式。 之前用 Claude Code,要么每次文件写入和命令执行都手动批准,要么直接跳过所有权限检查。auto 模式走了一条中间路线:让 Claude 自己判断该不该放行。 具体机制是,每次执行操作前,会有一个分类器评估该操作是否有破坏性风险。安全的自动放行,有风险的会被拦截,Claude 会换一种方式完成任务。官方也坦言,这能降低风险但不能完全消除,建议在隔离环境中使用。 目前作为研究预览版在 Team 计划中可用,Enterprise 和 API 访问将在未来几天陆续开放。启用方式:claude --enable-auto-mode,然后用 Shift+Tab 切换模式。
Claude@claudeai

New in Claude Code: auto mode. Instead of approving every file write and bash command, or skipping permissions entirely, auto mode lets Claude make permission decisions on your behalf. Safeguards check each action before it runs.

中文
17
12
102
34K
RC retweetou
indigo
indigo@indigox·
AI 让个人效率提升了 10 倍,但没有任何公司的估值因此提升了 10 倍,那些生产力去哪了?来自 Hebbia CEO 的文章详细论述了一个犀利的观点“高效的个人不等于高效的企业” - 1890 年代纺织厂换上电动机,30 年内几乎没有产出增加。直到 1920 年代彻底重建车间(流水线、独立电机、全新工作方式),电气化才产生回报! 我们所处的阶段,就像电力时代「换了马达,但还没有重建工厂」这篇文章从七个维度探讨了“个人 AI vs 机构 AI” 1. 协调:每个员工有自己的 ChatGPT 习惯,输出互不相通。未来会出现整个「Agentic Management」行业; 2. 信号:「几乎所有 AI 生成的东西都是垃圾。我经营 AI 公司,但要求高管不用 AI 写任何最终文字。」PE 行业:以前 10 个 deal/季度,现在 50 个,每个都 AI 打磨完美,你只有同样多的时间。未来十年核心经济能力:在指数级增长的垃圾里找信号; 3. 客观性:RLHF 把模型变成了马屁精。「组织里最差的员工,很快就会有 ASI 一直同意他们。这令人陶醉,也对组织有毒。」未来最重要的 Agent 是有纪律的「no-man」——AI 审计师、AI 董事会成员、AI 合规官; 4. 边缘优势:当一种能力变得普遍,它本质上就无法帮你胜出了。垂直领域 1% 的微小优势可以杠杆成数十亿。「AGI 会想用什么捷径工具?即使超级智能,也需要专用工具」; 5. 结果:每个 CEO 的第一优先级是增长营收,不是削减成本。但几乎所有 AI 产品都在交付降本。「纯软件正在变得不可投资,解决方案层才是价值积累的地方」价值链:基础模型 → 应用层 → 解决方案层,重心在持续上移; 6. 赋能:Palantir 在科技股大崩盘中仍保持高倍数,因为它是真正的「流程工程」公司。「流程工程将是近期最重要的技术,而业务专业知识比软件专业知识更重要」; 7. 主动性:「AI 能做的最有价值的工作,是没有人想到要问的工作」找到没人发现的风险,找到没人想到的交易对手。不需要被提示就能主动行动,才是真正的机构智能。
George Sivulka@gsivulka

x.com/i/article/2024…

中文
6
38
157
39.7K
RC retweetou
Anthropic
Anthropic@AnthropicAI·
New on the Anthropic Engineering Blog: How we use a multi-agent harness to push Claude further in frontend design and long-running autonomous software engineering. Read more: anthropic.com/engineering/ha…
English
315
920
6.7K
1.7M
RC retweetou
Robinson · 鲁棒逊
Robinson · 鲁棒逊@python_xxt·
R.I.P 一件小事 年度体检的坑 我们大多数人在三四十岁的时候,总觉得自己身体还行,体检这事儿能拖就拖。但很多重大疾病,尤其是癌症,早期几乎没有症状。等“感觉到不对”的时候,往往已经不是早期了。 年度体检,真的不能走过场 说一个很多人不知道的坑:体检机构的基础套餐,很多关键项目是不包含的,需要我们自己主动勾选加项。 如果只做默认套餐,很可能漏掉了最该查的东西。 以下是重点推荐加上的项目: 强烈建议加项(直接勾) · 胸部低剂量CT : 基础套餐一般只有胸片(X光),对早期肺癌几乎没用,拍了个寂寞。低剂量CT才是肺癌筛查的金标准,多花一两百块,意义完全不同。 · 胃肠镜 : 大多数套餐不含,需要单独预约。40岁以上建议做一次,有家族史的30岁就该做。胃癌、肠癌早期发现治愈率很高,晚期就是另一回事了。 · 甲状腺B超 : 甲状腺癌高发,尤其女性。很多套餐不带或只做触诊,没意义,要加B超。(这个在另一个推说过,是懒癌,预后比较好) · 幽门螺杆菌检测(C13呼气试验):跟胃癌直接相关,吹口气就能查,便宜又简单。 · 肿瘤标志物组合(CEA、AFP、CA199等):抽血加几项的事,作为辅助筛查参考,不贵但要自己勾。 女性额外加项 · 乳腺超声(40岁以上可加钼靶): 基础套餐有时只有外科触诊,远远不够。 · 宫颈TCT + HPV检测 :有的套餐只含其一,建议两项都做。 男性额外加项: · 前列腺PSA检测 — 45岁以上加,抽血即可。 另外一件同样重要但常被忽略的事: 请给家里的顶梁柱,你自己买一份重疾险。 趁年轻、趁健康的时候买,保费便宜且不容易被拒保; 请选择纯重疾险,不要捆绑返还型的(贵且性价比低);保额至少覆盖30-50万;仔细看条款里对高发癌症的定义和理赔条件。 请在自己还健康的时候,把该做的事做了。 体检加项,一共多花几百块。 重疾险一年,一两千块。 换来的是安心,和一个兜底的安全垫。 R.I.P
中文
27
339
1.5K
261.5K
RC retweetou
宝玉
宝玉@dotey·
Agent Skills 设计哲学和实战进化 前半段是真实场景演示,看我日常怎么用 Agent + Skills 完成实际工作;后半段是设计哲学和迭代方法论,把踩过的坑和悟出来的经验都讲透。 四个核心观点: 1)从提示词到 Skills:起步没有门槛。把你已有的好用提示词、好的实践、甚至模糊的想法,直接用 /skill-creator 变成 Skill。关键是动手。 2)别做万能 Skill:Skill 要原子化,每个只做一件事。然后用 Skill 或者 AGENTS.md 编排成工作流,让 Agent 灵活执行。我的素材收集和写作流程就是这么串起来的。 3)Skills 像随身小刀,越用越顺手:自己常用、遇到问题当场改、给 Agent 高质量对比样例让它自己优化、用 git 做版本管理留后悔药。 4)站在 Agent 角度设计:多存中间文件、先分析再执行、写清验证标准、用子 Agent 并行、脚本优先于 MCP。这些小细节决定 Skill 能不能真正跑通。 baoyu-skills 已全部开源:github.com/JimLiu/baoyu-s…
宝玉@dotey

感谢大家支持,从第一次发布 baoyu-skills ,到现在 2 个多月时间已经 10K+ stars 了。 skills.sh 上的数据: 193.7K total installs,当前最受欢迎的 skill 排名在 170 github.com/jimliu/baoyu-s…

中文
60
217
1K
147.1K
RC retweetou
Thariq
Thariq@trq212·
I put a lot of heart into my technical writing, I hope it's useful to you all. 📌 Here's a pinned thread of everything I've written. (much of this will be posted on the Claude blog soon as well)
English
230
763
7.3K
1.1M
RC retweetou
宝玉
宝玉@dotey·
“开发者生态”这样确实更准确👍 x.com/great_kirisaki…
Kirisaki@great_kirisaki

@dotey 低代码的生态确实存在,但那些 ISV 是靠卖给企业客户赚钱,不是靠开发者生态繁荣,Skills 的差异在于能不能让 Agent 自己迭代自己。

中文
0
1
3
7.4K