peter

6.2K posts

peter banner
peter

peter

@gonewithwill

Katılım Eylül 2021
328 Takip Edilen75 Takipçiler
peter retweetledi
Akshay 🚀
Akshay 🚀@akshay_pachaar·
the three-tier memory of Hermes agent. AI agents forgets everything when your session ends. Hermes doesn't. it has three memory layers, each at a different speed. 𝘁𝗶𝗲𝗿 𝟭: 𝘁𝘄𝗼 𝘁𝗶𝗻𝘆 𝗺𝗮𝗿𝗸𝗱𝗼𝘄𝗻 𝗳𝗶𝗹𝗲𝘀 MEMORY.md (2,200 chars) and USER.md (1,375 chars). injected into the system prompt at session start as a frozen snapshot. MEMORY.md holds project conventions, tool quirks, lessons learned. USER.md holds your profile: name, communication style, skill level. these files are tiny on purpose. when MEMORY.md hits ~80% capacity, the agent consolidates: merges related entries, drops redundancy, keeps only the densest facts. natural selection pressure applied to memory. the files stay small, but what's inside gets sharper over time. 𝘁𝗶𝗲𝗿 𝟮: 𝗳𝘂𝗹𝗹-𝘁𝗲𝘅𝘁 𝘀𝗲𝘀𝘀𝗶𝗼𝗻 𝘀𝗲𝗮𝗿𝗰𝗵 (𝘀𝗾𝗹𝗶𝘁𝗲 + 𝗳𝘁𝘀𝟱) every conversation gets stored in SQLite with FTS5 indexing. the agent can search weeks of past sessions on demand. when the agent calls session_search: FTS5 ranks matches in ~10ms over 10,000+ docs, an LLM summarizes the top hits, and a concise result returns to context. tier 1 is always present but tiny. tier 2 has unlimited capacity but requires an active search. critical facts live in memory, everything else is searchable. 𝘁𝗶𝗲𝗿 𝟯: 𝗲𝘅𝘁𝗲𝗿𝗻𝗮𝗹 𝗺𝗲𝗺𝗼𝗿𝘆 𝗽𝗿𝗼𝘃𝗶𝗱𝗲𝗿𝘀 8 pluggable providers that run alongside tiers 1 and 2, never replacing them. three worth knowing: Honcho (dialectic user modeling, 12 identity layers), Holographic (local-first, HRR vectors, no external calls), and Supermemory (context fencing that prevents the same fact from being re-stored infinitely). when active, hermes auto-syncs every turn: prefetch before, sync after, extract at session end. 𝗵𝗼𝘄 𝘁𝗵𝗲𝘆 𝗰𝗼𝗺𝗽𝗼𝘀𝗲 𝗶𝗻 𝗮 𝘀𝗶𝗻𝗴𝗹𝗲 𝘁𝘂𝗿𝗻 this is the part most people miss. the tiers compose on every turn through a five-step cycle: 1. turn opens. tier 1 is already in prompt, tier 3 prefetches and prepends. 2. agent responds using all three tiers as context. 3. periodic nudge fires (~every 300s). the agent reflects: "has anything worth persisting happened?" if yes, it writes. if no, it returns silently. 4. memory written to MEMORY.md on disk. invisible this session because the prefix cache stays warm. 5. session closes. tier 2 logs the transcript, tier 3 extracts semantics. next session opens with the new state. agent memory today is either always-on but shallow (stuff everything in the prompt) or deep but passive (vector store that never fires at the right time). hermes composes across both: tiny always-present files for critical facts, full-text search for deep recall, external providers for semantic modeling, all orchestrated by a nudge that decides autonomously what's worth saving. the agent doesn't just store memories. it curates them under pressure. i wrote a full deep dive (article below) covering hermes agent's memory system, self-evolving skills, GEPA optimization, and how to set up multiple specialized agents on your machine.
Akshay 🚀 tweet media
Akshay 🚀@akshay_pachaar

x.com/i/article/2053…

English
43
104
795
105.7K
peter retweetledi
Jealousy 尼卡
Jealousy 尼卡@eastweb3eth·
零基础开始 Vibe Coding 必看的书---Harness 工程书 不管是 Claude 还是 Codex 已经取代了大量基础码农的工作,也让没有任何代码基础的人可以开始 Vibe Coding。但是由于没有系统学过 Harness 工程,在使用大模型时效率很低。 现在这两本书一次把 Claude 和 Codex 的 Harness 工程一次给你解释清楚,而且还有中文版,大家不容错过~ 仓库:github.com/wquguru/harnes… 感谢 @wquguru 开源。 在线阅读和下载链接:harness-books.agentway.dev/index.html 我是尼卡,平时会持续分享 AI、美股、Web3 相关有用又有趣的工具和项目,感兴趣的话欢迎关注,下次见~
Jealousy 尼卡 tweet media
Jealousy 尼卡@eastweb3eth

每个人都必装的5个Codex神级 Skill 工具 我感觉 Codex 被越来越多人选择了,不仅用起来便宜,而且注册简单,没有 Claude 那些被封号的糟心事,最重要的是这次更新让 Codex 的能力提升了一大截。我目前的体验是在很多方面都要比 Claude 要强了。 但是有人反映自己的 Codex 并不好用,其实是因为有几个神器你没有给 Codex 安装,不废话了,干货来了: 1. github.com/ComposioHQ/awe… 9.1K Star 【awesome-codex-skills】这个Skill 我看很多朋友都推荐过了,我在亲自使用后也来推荐,确实好用。为什么把它放在第一个,因为这个Skill本质上是个Skill合集,包括了 开发代码类,生产力类,写作类,数据分析类和实用工具类5大部分。大家可以在合集中挑选自己适合自己的安装。 2. github.com/yamadashy/repo… 24.7K Star 【repomix】看星级就知道非常牛逼了,而且该工具已经获得了2025 年 JSNation 开源奖“人工智能驱动”类别的提名。那么 repomix 有什么用呢?它可以将您的整个代码库打包成一个对 AI 友好的文件,一句话总结:这是个 Vibe coding 的神器。让任何人都可以用大模型来写代码和改代码。 3. github.com/zarazhangrui/f… 4.2K Star 【follow-builders】这是个改善信息流获取效率和质量的 Skill,它能追踪 AI 领域最顶尖的大佬——研究员、创始人、产品经理和工程师——并将他们的最新动态整理成易于消化的摘要推送给你。信息就是财富,我认为这个 Skill 也是每人必装。 4. github.com/b-nnett/codex-… 1.5K Star 【codex-plusplus】是专为 Codex 桌面应用设计的插件/补丁系统。你可以一边改代码一边看到自己制作的APP的修改变化。极大的提高工作效率,让每一个代码的修改都变得可视化。 5. github.com/vibeforge1111/… 963 Star 【keep-codex-fast】顾名思义,这个Skill 是为了保持你的 Codex 运行速度和效率,不会越用越卡和越用反应越慢,而且不会丢失过往数据和信息。保持 Codex 运行的丝滑。 上面5个是大家在使用 Codex 时必装的 Skill,适合所有人使用。 我是尼卡,平时会持续分享 AI、美股、Web3 相关有用又有趣的工具和项目,感兴趣的话欢迎关注,下次见~

中文
43
181
593
56.7K
peter retweetledi
peter retweetledi
LISA
LISA@MindOS_Lisa·
CLAUDE.md 的12条规则,让编程错误率从 41% 降至 3% 一、 Karpathy 的 4 条基础规则(针对代码编写) 规则 1:编码前先思考 (Think Before Coding) 明确陈述假设;不确定的地方要提问而不是靠猜;存在歧义时提供多种解释;如果存在更简单的方法,要予以反驳。 规则 2:简约至上 (Simplicity First) 只写能解决问题的最少代码;不写投机性功能;不为单次使用的代码做抽象。 规则 3:外科手术式修改 (Surgical Changes) 只触碰必须修改的地方;不要顺便“优化”无关的代码、注释或格式;不修复没坏的东西;匹配现有风格。 规则 4:目标驱动执行 (Goal-Driven Execution) 定义成功标准并循环直到验证成功;不要告诉 Claude 执行步骤,而是定义“成功是什么样”,让它自己迭代。
Mnimiy@Mnilax

x.com/i/article/2053…

中文
32
223
1.2K
203K
peter
peter@gonewithwill·
@caiyue5 卧槽,Kimi对比如何
中文
0
0
0
200
Yue
Yue@caiyue5·
Minimax 是个垃圾
中文
54
1
74
23.8K
peter retweetledi
酱紫表
酱紫表@pengchujin·
女朋友又让我用 AI 帮忙做 PPT🤡,XDM 做 PPT 用选哪个?
中文
131
51
416
132.7K
颜克权
颜克权@yantanzhang·
为什么越来越多的国内男孩要娶国外女孩? 优势1,众所周知的彩礼问题,国外没有这种陋习 优势2,外国人无法在中国撸小贷,你不用担心她拿你来化债。 优势3,生出来的孩子是混血儿,特征较非混血儿更明显,肉眼确定亲子关系。 优势4,娘家在国外 优势5,会被小红书波刚排斥,不至于在小红书学一堆臭毛病。 优势6,你和妻子的刑事案件+会牵扯到大使馆和外交部,法院不敢乱来。 优势7,子女一出生就自带一门外语天赋,领先版本。
中文
59
31
451
33.7K
peter retweetledi
鸭哥
鸭哥@grapeot·
Anthropic 发现把 MCP 工具定义改成让 agent 自己从文件系统按需加载,token 从 150K 降到 2K,省了 98.7%。Vercel 的模板说不要向量数据库。Manus 的核心是把文件系统当 context。这个转向背后的前因后果、四家公司各自的设计判断差异、和四个盲区,我写清楚了。 yage.ai/share/agent-fi…
中文
8
50
266
46.8K
peter retweetledi
摆烂程序媛
摆烂程序媛@wanerfu·
花一天时间掌握Claude: → 第1级 - 24分钟:基础知识。 'Claude傻瓜指南':t.co/HNa5MrCLVU 'Claude设置':t.co/jw2qdIcjnh → 第2级 - 1小时:实际工作流。 'Claude协作':t.co/uWTpOI3Woc 'Claude团队版':t.co/qxlcqhf8bM 'Claude设计':t.co/ZY8Fg5D2ea '协作+项目':t.co/Q7AN9CZAbO 'Claude幻灯片':t.co/L0bPMgXci6 'Claude技能':t.co/6cHYYfjXEA → 第3级 - 3.5小时:专业技巧。 '避免奉承':t.co/5i8xSJBGUl 'Claude代码':t.co/UgE9xBXVbE 'Claude 101':t.co/OvBmlvnVqL '突破Claude限制':t.co/j5fEzSH5br '停止瞎提示':t.co/j1LATSJiat → 第4级 - 8小时:专家模式。 'Claude电脑':t.co/TxYuHPjgbV '用Claude API构建':t.co/RcCbfNjlzz 专业提示:别一口气看完。每次学一级。
摆烂程序媛 tweet media
中文
197
386
1.2K
98.9K
peter
peter@gonewithwill·
有没有认为是泡沫的?
中文
0
0
0
0
peter retweetledi
泊舟
泊舟@bozhou_ai·
自学 Vibe Coding 看这三个开源项目就够,不用买课 很多 AI Coding 课程的素材都从这里来,原始版本反而更系统 1. Easy-Vibe DataWhale 出品的系统教程,5k stars。分三阶段:从 AI 编程小游戏入门,到产品创意 + Web 原型,再到桌面应用和多 Agent 协作。零基础友好,中文为主 github.com/datawhalechina… 2. vibe-coding-cn 原 EnzeD/vibe-coding 的中文翻译版,11k stars。三块内容:Prompt 提示词、Skill 技能库、Workflow 工作流。强调规划先行、模块拆分、接口在前,把 vibe coding 从随性即兴变成可重复工程 github.com/tukuaiai/vibe-… 3. awesome-vibe-coding 最全的 Vibe Coding 资源 awesome list,4k stars。覆盖浏览器工具、IDE、移动端 App、插件、CLI 工具。所有主流 vibe coding 工具的总目录 github.com/filipecalegari… 先把这三个读完,你对AI Coding 会有一个全新的认知
泊舟 tweet media泊舟 tweet media
中文
60
380
1.5K
101.6K
peter retweetledi
LIN WEI
LIN WEI@skywind3000·
分享下我的手工记忆系统:更好的同 AI 讨论问题,记忆不依赖 agent,而是全部记录在 git 上,同一个话题随便新开会话继续讨论,换机器,换 agent 软件都没问题,最终形成个人长期知识库;规则 AGENTS.md 如下:
LIN WEI tweet media
LIN WEI@skywind3000

我现在是手工记忆法:新建个空项目然后补充点背景情况存成文档,比如小孩的学习情况,各科情况等,然后手工在 AGENTS.md 里做索引;再和 ai 讨论某科学习方法后,让 ai 整理落地成新文档,再补充索引,这样接下来让 ai 给小孩出一些练习题就会比较有针对性,无需每次重复输入很多背景。

中文
18
38
268
37.1K
peter retweetledi
杂学大师✨
杂学大师✨@Techbruneth·
个人认为目前实现全英交流最快的方式之一,最快7天见效
杂学大师✨ tweet media
中文
404
271
1.5K
80.8K
peter
peter@gonewithwill·
上一周突发奇想清仓了纳指etf和日经指数,才发现是多么的愚蠢
中文
0
0
0
49
peter retweetledi
sitin
sitin@sitinme·
有研究团队把 Claude Code 公开的 TypeScript 源码拆了一遍,发现一个挺反直觉的结论——51.3 万行代码里,真正跟 AI 决策相关的部分只占 1.6%。 剩下的 98.4% 是什么?不是 prompt 魔法,而是大量工程基础设施:权限控制、上下文管理、工具调度、会话存储、任务隔离等等。 这点很值得琢磨。很多人做 AI 产品,第一反应是换模型、调 prompt、搞 agent 编排。但 Claude Code 真正厉害的地方,恰恰不是把模型包得多复杂,而是用一套很稳的工程系统,让模型可以安全、高效、持续地干活。 它的核心逻辑其实很简单:模型思考下一步要做什么 → 调用工具 → 拿到结果 → 再继续。 说白了,就是一个循环。但这个循环外面包了一层很厚的“安全壳”:什么时候能执行命令、什么时候要问用户、上下文快满了怎么压缩、子任务怎么隔离、会话怎么恢复,全都被系统管住了。 我觉得里面最值得学的几个设计是: 第一,上下文不是无限塞,而是分层压缩。Claude Code 有多层压缩机制,先删便宜的、无关紧要的工具输出,实在不够再做大段总结。这样不会动不动就把整个 session 压成一坨摘要,尽量保留关键上下文。 第二,CLAUDE.md 很特殊。它不是普通聊天上下文,而是每次从磁盘重新读取,所以不会因为上下文压缩被删掉。 也就是说,你写在 CLAUDE.md 里的项目规则、编码规范、架构约定,会一直存在。这也是为什么很多人说,Claude Code 用得好不好,CLAUDE.md 很关键。 第三,权限系统很细。Claude Code 不是简单地“允许所有”或“禁止所有”,而是根据工具、参数、目录、运行模式来判断风险。 低风险操作自动放行,高风险操作再问用户。这个设计比粗暴拦截好用很多,也更适合真实开发场景。 第四,Subagent 很聪明。复杂任务可以拆给子 agent 跑,而且子 agent 有独立上下文和 worktree。 它内部可能消耗很多 token,但最后只给主 agent 返回一小段摘要,比如“测试通过了”“类型检查没问题”。这样主会话不会被大量细节撑爆。 还有一点我很喜欢:Claude Code 的 session 是 append-only 存储的,可以继续恢复。claude --continue 不只是“接着聊”,而是继续使用一个已经理解过你项目的 agent。它知道之前看过哪些文件、跑过哪些测试、项目结构是什么,体验会比每次新开一个 session 好很多。 所以这篇分析给我的最大启发是:AI 产品的壁垒不只在模型,而在模型周围的工程系统。 模型负责“想”,但真正决定产品能不能长期稳定使用的,是权限、上下文、工具、存储、隔离、恢复这些看起来没那么性感的东西。 Claude Code 厉害的地方,不是让 AI 看起来更神,而是把 AI 当成一个很强但需要管理的工程师:给它工具,给它规则,给它权限边界,也给它持续工作的记忆。
sitin tweet mediasitin tweet mediasitin tweet mediasitin tweet media
中文
15
88
354
32.3K
Arish Ai
Arish Ai@Tech_Arish·
The best strategic thinking👇
Arish Ai tweet media
English
26
152
753
13.9K