
池建强
8.1K posts

池建强
@sagacity
墨问西东创始人,公众号 MacTalk 作者。 产品:https://t.co/WAKvIHBBTT



@sagacity AI Friendly 真正要解的是 agent 怎么理解你软件的状态、权限这些 context。好奇墨问走的是 MCP 还是自己定义了一层协议?



所以软件会消失吗?未来是不是只有 Agent 工具和 Skills 呢?App 还会存在吗?我不知道,但相当长的一段时间内,两者应该是并存的关系。并且,所有的软件都应该对 AI Agent 友好,也就是说,AI Friendly,说白了,就是得给 Agent 做软件。 墨问也不例外,开始进入 Agent 的工作流了。最近俩月我们在做三四个项目,后续会陆续发布,第一个就是墨问官方 CLI 工具和官方 Skills 仓库。 地址在这里:github.com/mowenxd/cli 因为 CLI 依赖墨问的 API Key,目前已经开放给所有用户,包括会员和普通用户,只不过会员调用额度会更多一些。 详情阅读: note.mowen.cn/detail/4MrLzVt…


Codex 大踏步进击,入驻浏览器,它的能力得有这么多… note.mowen.cn/detail/jd7QZD9… 上周 OpenAI 给 Codex 做了个 Chrome 扩展,类似扩展 opencli 之前就搞过,控制浏览器呗,我感觉这不是啥重磅消息,直到我看了这个多 Agetn 控制 Chrome 的视频…… 1、用户给 Codex 下任务:让 4 个 subagents 用各自的 Chrome 标签页一起玩一个 drawing game。 2、Codex 启动本地网页应用,创建一个固定房间 CODEX4。 3、第一个代理先创建房间,另外 3 个代理再加入。 4、因为游戏需要多人同步开始,Codex 做了协调:等 4 个标签页都准备好后,再统一发出开始信号。 5、画图题目是 tiny lighthouse,也就是“小灯塔”。 6、四个代理分别在各自画布里画灯塔,有的画了红屋顶、黄光束、蓝色海浪,有的画了塔身、灯室、门和地面/水波。 7、最后 Codex 检查 Chrome 里的实际结果,确认 4 个 live PromptGrid 标签页都在同一个房间里,并且每个代理都完成了绘制。





1M 上下文时代,使用 Coding Agent 省钱计划 note.mowen.cn/detail/bDiFBV6… 先说结论,怎么省钱呢,其实就是做好会话管理。、 1M 上下文是什么意思?就是在一次会话(session)里,模型能看见的大概 100 万个 token。最近发布的 GPT-5.5、Claude 4.6/4.7、Qwen 3.6-Plus、DeepSeek V4 等等都是原生支持 1M 上下文,这里面有几个关键的概念: 第一,在 Claude Code 这类 Coding Agent 里,上下文不是一句两句对话,而是一个大杂烩:系统提示词、长期记忆、调用过的工具、工具的输出、读过的代码文件、终端日志、以及你给它的各种指令,统统都会塞进去。模型每回答一次,都是在这一大坨信息里“分配注意力”,决定该看什么、不看什么。 第二,1 百万意味着什么?以前咱们都用 8K、32K、200K 这种上下文窗口,现在是 1M token,像什么呢?原来你桌上摊几份文件几本书就满了,现在你有了一个很大的仓库,全部代码库、长日志、好几轮调试过程,都可以同时装进去,模型一眼看穿,这就是所谓“1M 上下文时代”。 但仓库再大,有两个本质没变:1、大模型会被噪音干扰;2、你的钱会随着大量 Token 流失,达到一种花 Token 如流水的感脚。 很多人用硅谷的顶级模型,没跟人家寒暄几句呢, 5 小时的额度已经用得干干净净,这真是人生最大的悲剧:任务没做完,Token 花完 liao……


