陈成

1.4K posts

陈成

陈成

@chenchengpro

engineering @antgroup, created umijs, dvajs, mako and neovate code

浙江, 中华人民共和国 Katılım Haziran 2008
672 Takip Edilen7.6K Takipçiler
陈成
陈成@chenchengpro·
一个开发者在调 debug 的时候,意外发现了 Cursor 的秘密。 他只是在看 API 返回,然后注意到一个字段:kimi-k2p5-rl-0317-s515-fast Cursor 刚发布的 Composer 2,底层是月之暗面的 Kimi K2.5。 以下是接下来 24 小时发生的事: T+0:Cursor 发布 Composer 2,宣称更快更强,发布博客没有提任何基座模型。 T+2h:开发者 fynnso 在调试时从 API 返回扒出 model ID,发帖。 T+3h:Moonshot AI 预训练负责人 Yulun Du 做 tokenizer 分析,发帖确认:"几乎可以肯定是我们模型的进一步微调。" 随后删帖。另一名 Moonshot 员工发帖质疑许可证违规,也删了。 T+5h:社区开始扒 Kimi K2.5 的修改版 MIT 许可证条款——月收入超 2000 万美元的产品必须在界面上标注 "Kimi K2.5"。Cursor 月收入约 1.67 亿美元,界面上没有任何标注。 T+8h:Cursor 副总裁 Lee Robinson 发帖承认使用了 Kimi 基座,称通过推理合作伙伴 Fireworks 获得授权,表示未注明是"失误"。 T+12h:Moonshot 官方确认授权关系合法。事件定性:沟通事故。 ─── 表面上,这是一个翻篇的故事。 但许可证里那行字还在:月收入超 2000 万,必须标注。没有人解释清楚这个义务最终由谁来履行,也没有人追问。 真正让人不安的不是 Cursor,而是这套逻辑如果成立——拿开源模型、做 RL 微调、包装成自研产品、融资时不提来源——那开源模型厂商为什么还要继续开源?
中文
0
0
2
400
陈成
陈成@chenchengpro·
一觉醒来: Claude 桌面应用上线 Projects,支持本地文件夹绑定和定时任务 Cursor Composer 2 底层基座是 Kimi K2.5,被开发者扒出后副总裁承认未注明是"失误",Moonshot 官方确认授权合法 Cursor 同步发布 Glass 早期访问,整合 Agent、代码库和云端任务,支持本地与云端切换 Google Gemini API 新增 Veo 3.1 和 Nano Banana 2 图像模型,3 行代码可切换 微软发布 MAI-Image-2 图像模型,具备推理能力并支持中文文字生成 GLM-5.1 官方确认即将开源 #一觉醒来
中文
0
0
1
425
陈成
陈成@chenchengpro·
用不完 token 的焦虑,比用完 token 还大。现代版的「自助餐没吃回本」。
中文
2
0
6
860
陈成
陈成@chenchengpro·
黄仁勋说:拿到AI第一件事就是裁员的CEO,不是在优化公司——是在告诉所有人,他们已经想不出下一步该做什么了。 有想象力的领导者,会用更多资源做更多事。 没想象力的,只能削减成本,然后告诉董事会这叫"AI转型"。 工具给到你了。问题从来都不是AI,是你。
Ricardo@Ric_RTP

Jensen Huang just called out every CEO who’s been firing people “because of AI.” Jim Cramer asked him why companies are laying people off if AI is supposed to make everyone MORE productive. Jensen's answer: "For companies with imagination, you will do more with more. For companies where the leadership is just out of ideas, they have nothing else to do. They have no reason to imagine greater than they are. When they have more capability, they don't do more." Read that again. The man who built the most important tech company on Earth just told you that if your CEO is using AI to cut headcount, it means one thing: They have no imagination. They have no vision for what comes next. They got handed the most powerful tool in human history and their FIRST instinct was to fire people. This is the CEO of NVIDIA. The company whose chips power every AI system on the planet. If anyone on Earth has the right to say "AI replaces workers," it's Jensen Huang. And he said the OPPOSITE. He said every carpenter could become an architect. Every plumber could become an architect. AI elevates capability. It doesn't eliminate it. But here's where it gets really interesting... During the same interview, Jensen revealed something nobody's talking about: He said AI startups like OpenAI and Anthropic are seeing their revenues increase by one to two billion dollars a WEEK. And he wishes these companies were public so the world could see what he sees. One to two billion per week. That's a $50 to $100 BILLION annualized run rate. For companies that most people think are burning cash and making nothing. The entire Wall Street narrative that "AI companies aren't profitable" might be completely wrong. Jensen sees their numbers. He sees their compute orders. He sees their growth. And he's saying the revenue is real. So if the money IS real, why are other companies firing people? Because they're not building AI products. They're not creating new revenue streams. They're not using AI to expand into new markets. They're using AI as an EXCUSE to cut costs because they ran out of ideas 3 years ago and need something to tell the board. Jensen's company added $500 billion in new orders in 5 months. He expects $1 trillion in cumulative revenue through 2027 from just two product lines. That number doesn't include the new chips, systems, or partnerships announced this week. And he's not cutting people. He's hiring. Because when you have imagination, more capability means MORE opportunity. Not less headcount. Meanwhile Salesforce cut thousands. Meta cut thousands. Amazon cut thousands. All blaming "AI efficiency." Jensen's response: You're out of imagination. He also said something that stuck with me. Cramer asked if he ever thought he'd build a $10 to $20 trillion company while waiting tables at Denny's. His answer: "I was just trying to make it through the shift." Biggest tip he ever got? Two, three dollars. Now he's building tech that increased computing demand by one million times in two years. He announced OpenClaw, which he says is as big as ChatGPT. And he's got 21 months of new business that isn't even counted in the trillion dollar figure yet. When asked how long he plans to keep working? "I'm hoping to die on the job. And I'm not hoping to die anytime soon." This is a man who believes every single thing he's building. And his message to every CEO using AI to justify layoffs is simple... You're not innovating. You're surrendering. The technology wasn't built to shrink companies. It was built to make them limitless. If your leadership can't see that, the problem isn't AI. It's THEM.

中文
2
1
9
3.7K
歸藏(guizang.ai)
Claude Code 官方远程连接 Telegram 和 Discord 插件配置流程。 具体的操作方式 - Telegram: 创建机器人: 在 Telegram 中打开 BotFather,创建后复制他给你的 Token 安装插件: /plugin install telegram@claude-plugins-official 配置 Token: /telegram:configure 使用命令启动: claude --channels plugin:telegram@claude-plugins-official Telegram 配对: 打开 Telegram 发送任何信息获取到配对码; 在 Claude Code 里面发送 /telegram:access pair 锁定访问权限: /telegram:access policy allowlist 具体的操作方式 - Discord: 创建 Discord Bot 并加进自己的服务器 ▫ 去  → New Application ▫ 创建 Bot,点「Reset Token」拿到 token ▫ 在 Bot 设置里打开 Message Content Intent ▫ 在 OAuth2 → URL Generator 里勾选 `bot` ▫ 然后给它这些权限:View Channels / Send Messages / Send Messages in Threads / Read Message History / Attach Files / Add Reactions ▫ 打开生成的链接,把 bot 邀请进自己的服务器 安装插件: /plugin install discord@claude-plugins-official 配置 Token: /discord:configure 命令启动 ClaudeCode: claude --channels plugin:discord@claude-plugins-official 配对 Discord 机器人: 私信你的机器人发配对码; 回到 Claude Code 发: /discord:access pair <配对码> /discord:access policy allowlist
歸藏(guizang.ai) tweet media
歸藏(guizang.ai)@op7418

Claude Code 推出了官方可以远程连接 Telegram 和 discord 的 MCP 直接设置就可以用手机远程控制 CC

中文
17
10
59
13.9K
陈成
陈成@chenchengpro·
如果你的 Claude Code Channel 不通,提示 `Channels is not enabled for your account.` 大概率是还没被灰度到。 在 ~/.claude.json 下搜 tengu_harbor,没有那就是没灰度到,等吧。
陈成 tweet media
中文
0
0
1
873
陈成
陈成@chenchengpro·
把 Blog 也 Skill 化之后。
陈成 tweet media
日本語
2
1
3
822
陈成
陈成@chenchengpro·
Anthropic 刚发布了 Claude Code Channels,但大多数人只看到了"手机发消息控代码"这个表面。 真正有意思的是底层发生了什么——CLI agent 变成了一个可远程寻址的服务。 技术上,MCP 在这里不是单纯的工具调用协议,而是通用接口层。Claude Code session 持续运行,MCP server 暴露标准化控制接口,Telegram/Discord bot 只是"控制平面"的一种实现。换句话说,任何能发消息的渠道,理论上都能成为你的 agent 操控台。 架构很清晰: 外部事件/消息 → MCP channel → Claude Code session → 本地文件系统/终端/工具链 你在地铁上发一条 Telegram,服务器上的 Claude Code 就开始 review PR、跑测试、改代码。全程异步,不需要你盯着屏幕。 但更值得关注的是"hackable"这个定位。官方没有锁死渠道,MCP 的开放性意味着你可以接入 Slack webhook、GitHub Actions 触发器、甚至 IoT 事件流。Claude Code 正在从"本地开发工具"演化为可编排的 agent runtime,消息渠道只是 trigger 层。 这和 OpenClaw 那类方案的本质区别不在功能,而在集成深度:官方原生支持意味着 session 状态、上下文、工具权限都是一等公民,不是外挂的 hack。自带白名单安全机制和企业管控,Team/Enterprise 可由管理员统一启停。 之前社区搞的各种 wrapper,本质上都在做一件事——把 Claude Code 从终端里解放出来。现在官方用一个 --channels 参数就把这条路铺好了。交互层正在被官方吃掉。 真正的问题是:当 Claude Code 变成一个可以被外部事件驱动的 runtime,下一步是不是直接订阅 GitHub issue、CI 失败日志、监控告警?那时候"开发者主动写代码"这件事,边界会在哪里? 这不是一个功能更新,是一个架构宣言:AI coding agent 的未来是 Headless 的。GUI 不重要,通道不重要,重要的是 Context 和 Memory。 目前还是 Research Preview,仅支持 claude.ai 登录。但方向已经很明确了——你的开发环境,不再需要你坐在面前。
Thariq@trq212

We just released Claude Code channels, which allows you to control your Claude Code session through select MCPs, starting with Telegram and Discord. Use this to message Claude Code directly from your phone.

中文
6
13
81
26.2K
陈成
陈成@chenchengpro·
一觉醒来: Cursor 发布 Composer 2 编程模型,首次持续预训练 + 强化学习,输入价格仅 $0.50/M tokens 小米 MiMo-V2-Pro 正式发布,1T 参数开源,目前开源模型中参数规模最大 Google AI Studio Vibe Coding 大升级,集成 Firebase、shadcn/ui,从 build 到 deploy 全闭环 Qwen 3.5 Max Preview 发布,Arena 数学榜 #3 微软 Copilot 发布 MAI-Image-2 图像模型 Claude Code 2.1.80 发布,Memory 系统升级,会主动校验记忆是否过期 Claude Code Channels 上线,支持通过 Telegram 和 Discord 远程控制开发任务 OpenAI 收购 Astral,将 uv、Ruff、ty 三大 Python 工具整合进 Codex 生态 #一觉醒来
中文
2
3
28
10.1K
陈成
陈成@chenchengpro·
构建 AI agent 产品有一个没人公开谈的激励陷阱: 你最愿意付钱、最狂热的用户,往往是那群在用极其复杂、烧钱、实际上得不偿失的"花活"的人。 swarm、long context、50个MCP……他们爱这些。 但如果你有增长目标要交、投资人要汇报、销售团队要养活——你就会忍不住去迎合他们。产品会朝着"服务 LLM 狂热者"的方向漂移,而不是真正解决问题。 Amp(@srcdev)的应对方式:限制长上下文、主动展示成本、劝阻大型 MCP、砍掉使用率高但不值当的功能。 能这么做,是因为他们已盈利、没销售团队、没增长 KPI。 但大多数公司没这个条件。
Quinn Slack@sqs

An uncomfortable truth about building agents/models: By default, your most lucrative, most-smitten customers will be those using intricate out-of-band techniques that are exorbitantly expensive and probably net negative (but that they love). It's a very weird incentive. You can't and don't want to indulge this. There's nothing wrong with experimentation, but if you saw what every agent company sees, you'd know this goes way beyond experimentation. Amp tries really hard to prevent this: limiting long context, showing prices, not recommending swarms or loops prematurely, strongly advising against big MCPs, killing features that have high usage but that aren't worth it anymore, and just generally staying away from any hype train we don't have a good gut feeling about. Pi and OpenCode are also particularly good and outspoken here. But if you have growth targets to hit, investors to pitch, and salespeople to keep happy, or if you didn't start this way from day 1, I can see it being tricky. At Amp, we're profitable, don't have salespeople, and have no sales/growth targets to hit, so we have it relatively easy. I often wonder what this tension is like inside other companies building agents. (And for the record: if you've shown me your Amp workflow and I haven't told you this directly, this post is not about you. :)

中文
0
0
6
2.2K
陈成
陈成@chenchengpro·
让 AI 自动把你的 prompt 从 56% 优化到 92%,这是具体怎么做的: 第一步:定义你的评分标准 把"感觉不错"翻译成 3-6 个是/否判断题: ✓ 标题是否包含具体数字或结果? ✓ 是否避免了"革命性""颠覆式"这类废话? ✓ CTA 是否用了具体动词而非"了解更多"? ✓ 开头是否点出了具体痛点? ✓ 总字数是否在 150 词以内? 第二步:跑优化循环 Agent 自动执行:运行 skill → 用清单打分 → 改一处 → 再跑 → 分高就留,分低就撤。 一次只改一处。这是关键。改五处你永远不知道哪个起了作用。 第三步:看 changelog,不是只看分数 每轮改了什么、为什么改、有没有效——这份记录比优化后的 prompt 更值钱。 换模型的时候直接交给新 agent,它接着跑。 原理就是 prompt 的梯度下降:用模型最强的能力(评估)来修它最弱的地方(一致性)。 这套方法不只能用在 AI skill 上——冷外联邮件、落地页文案、newsletter 开头,任何能量化的东西都能跑。 完整方法和 skill 下载: x.com/itsolelehmann/…
中文
0
1
10
1.4K
陈成
陈成@chenchengpro·
一觉醒来: 小米 MiMo-V2-Pro 登顶 OpenRouter 排名第一,价格仅 Sonnet 的 1/5,未来一周免费试用 MiniMax M2.7 发布,SWE-Bench Pro 56.22%,参数超 1T,这个模型参与了自身的开发 Claude Code 一夜连发 2.1.78 和 2.1.79,响应流式输出、记忆机制全面改进 Gemini API 大更新:内置工具和自定义 Function Calling 终于可以混用了 Perplexity Comet 登陆 iOS,带 Agent 能力和语音模式 Mamba-3 论文出炉,混合 Transformer 效果优于纯模型 小红书开源 3B OCR 模型,支持图表识别输出 SVG #一觉醒来
中文
14
10
93
31K
陈成
陈成@chenchengpro·
用 Claude Code 快一年了,才发现有人已经把最值得知道的 45 条技巧全整理出来了。 ↓ 先说结论:大多数人只用到了 30%。 ─── 🔋 省 token / 省成本 Claude Code 默认 system prompt 占掉你将近 2 万 token——还没开始干活就先烧了 10% context。打补丁之后能压到 9k,每次对话省约 1 万 token,长期用差距非常明显。 MCP 工具建议开懒加载(ENABLE_TOOL_SEARCH: "true"),用到时才载入,不白白占位。 主动 /compact 或写 HANDOFF.md 交接给新会话,比等自动压缩精准得多。 ─── 🧠 Context 管理 AI 的 context 像牛奶——越新鲜越好用。新话题就开新会话,不要硬续。 超长对话别靠摘要,用"半克隆":只保留后半段的真实消息,不丢信息、不失真。可以配置 hook,context 超过 85% 时自动触发。 ─── 🚀 工作流提速 语音比打字快,而且快得多。本地 Whisper 模型转录偶尔出错,Claude 照样能理解,在飞机上都能用。 多任务推荐"级联法":3-4 个终端标签页并排,从左到右轮流处理,专注一个方向不乱跳。 Git worktree:多分支在不同目录独立工作,互不干扰,配合多标签效果翻倍。 Claude 无法访问 Reddit 等网站?配置 Gemini CLI 作 fallback,通过 tmux 中转,研究类任务照样跑。 ─── 🔍 代码质量 TDD 配 Claude Code 意外好用:先写失败的测试并提交,再让 Claude 写代码通过测试——有了明确目标,它的准确率高得多。 GitHub Actions 报错别自己翻 log,用 /gha 一键分析:自动判断是偶发 flake、breaking commit 还是配置问题,定位精准。 定期跑 cc-safe 扫描你的 settings.json,检查有没有不小心批准过 rm -rf、sudo 这类危险命令。 ─── 🤖 进阶:多 Agent 编排 把 Claude Code 扔进 Docker 容器,开 --dangerously-skip-permissions,让它自主迭代、自主修复、自主测试——出了问题也只在沙盒里,主机安全。 更进一步:外层 Claude 通过 tmux 控制容器内的 worker Claude。发指令、读输出、拉结果,全程不用手动切换终端,完全自动化的 agent 流水线。 需要并行分析大型代码库?让 Claude 同时启动多个子 agent,分工处理不同模块,还可以按任务复杂度指定 Opus / Sonnet / Haiku 分配算力。 ─── 📁 配置习惯 CLAUDE.md 从空文件开始,只把你反复说的话加进去,保持精简。定期审查,删掉过时内容。 设置终端别名:c = claude,ch = claude --chrome,每天省出来的时间不是玩笑。 关掉自动更新(DISABLE_AUTOUPDATER: "1"),避免新版本让 system prompt 补丁失效。 ─── 完整的 45 条技巧 + 一键安装脚本(状态栏、dx 插件、别名、懒加载 MCP 全部一次配好): 👉 github.com/ykdojo/claude-…
中文
8
144
613
42.2K
陈成
陈成@chenchengpro·
Anthropic 发布了 Claude Cowork + Dispatch。 一句话描述:AI Agent 住在你的电脑上,你从手机随时遥控,回来就能看到完成的工作。 这件事真正重要的地方,不是"方便",而是架构上的一个根本差异。 ─── 云端 Agent 的问题从来不是模型不够强。 是上下文是假的。 你让 ChatGPT Agent 帮你分析本地的财务表格,要先上传文件,丢失路径,还是访问不了你连接的 Slack 和 Google Drive。 你让 Codex 帮你写代码,它在 OpenAI 的云端虚拟机里跑,看不到你本地的项目结构。 开发者已经开始自己做中继服务器、打 Tailscale 隧道来绕过这个限制——这是一个很清晰的信号:需求是真实的,官方没有满足它。 ─── 本地 Agent 的优势是:上下文是真实的,因为机器是真实的。 读你真实的文件系统。操控你真实的浏览器。访问你真实连接的工具。 没有"先上传"这个步骤,没有权限层,没有云端延迟,没有把你的私有数据送到别人服务器的安全顾虑。 ─── 更值得关注的时间线: Cowork 一月份就上线了,有本地 VM、完整文件系统访问、技能系统。 然后 OpenClaw 的创始人 Steinberger 加入了 OpenAI,外界解读是"OpenAI 买到了这个方向的核心人才"。 但 Anthropic 根本没有收购 OpenClaw,也没有挖人,就把同样的事做出来了,而且做得更完整。 OpenAI 买走了建筑师,蓝图早就已经在 Anthropic 了。 ─── Agent 大战的关键不是谁的模型 benchmark 更高。 是谁先让 Agent 成为你真正工作流的一部分——不是演示时用的工具,是每天早上孩子还没醒你就派出去的那种。 本地优先不是架构偏好,是能不能真正融入你生活的前提条件。
Aakash Gupta@aakashgupta

Anthropic is building OpenClaw faster than OpenAI is. OpenClaw proved a concept the entire industry had been theorizing about: your AI agent should live on your computer, not in someone else’s cloud, and you should be able to talk to it from anywhere. 318,000 GitHub stars. Then Steinberger joined OpenAI to build exactly this at scale. Here’s what OpenAI has shipped since: Codex, a desktop coding agent with no mobile remote control. ChatGPT Agent, which runs on a remote virtual computer in OpenAI’s cloud where it can’t see your local files. Developers are filing GitHub issues on the Codex repo right now requesting phone-to-desktop control. Third-party devs already built Taskdex and Remote Codetrol to hack around the gap with relay servers and Tailscale tunnels. Anthropic just shipped it natively. Dispatch: pair your phone with Claude Desktop, message Cowork from anywhere, come back to finished work. Cowork already had the VM running on your machine, full filesystem access, browser control, sub-agent coordination, and a skills system stored as markdown. Dispatch was the missing piece that turns the whole stack into something you can operate from your pocket. The reason this works when cloud agents can’t: Cowork reads your actual filesystem, your actual browser, your actual connected tools. When I ask it to cross-reference a local spreadsheet with a competitor’s pricing page, it can do that because both the spreadsheet and the browser are on my machine. A cloud agent would need me to upload the spreadsheet first, lose the file path context, and still wouldn’t have access to my connected Slack or Google Drive. The context is real because the machine is real. I’ve been running Cowork since launch. Five tasks dispatched every morning before my kids wake up: research briefs, competitor analysis, file organization, data pulls from local spreadsheets, editing passes on drafts. 90 minutes of active work compressed into 10 minutes of dispatching and 20 minutes of reviewing outputs. Dispatch changes what happens the rest of the day. An idea hits while I’m out, I message Cowork from my phone, the work is waiting when I get home. And the part that should keep OpenAI up at night: Anthropic didn’t need to acquire OpenClaw or hire Steinberger to ship this. They were already building the same architecture independently. Cowork launched in January with local VM execution, filesystem access, and markdown skills before OpenClaw was even mainstream. Steinberger validated the demand. Anthropic had already built the supply. OpenAI bought the architect. They’re still looking for the blueprints he left at Anthropic’s door.

中文
0
0
4
2.2K
陈成
陈成@chenchengpro·
Anthropic 发了一篇论文,用随机对照实验证明了一件事: 你用 AI 学新东西,大概率什么都没学会。 52 名专业开发者,任务是学习一个从没用过的 Python 库。 一半有 AI 辅助,一半没有。 结果: • 有 AI 那组,测试得分低 17%(Cohen's d = 0.738,p = 0.01) • 完成任务速度——没有显著差异 既没学会,也没更快。白用了。 ─── 但这不是"别用 AI"的故事。 研究者把所有人的录屏逐帧分析,发现了 6 种使用模式,结果天差地别: ❌ 低分模式(测试得分 24–39%): ① 全权委托:让 AI 写代码,直接粘贴,完事。得分 39%,速度最快(19.5 分钟),但啥没学到 ② 渐进式依赖:开始还自己想,后来越来越懒,全交给 AI。得分 35% ③ 反复让 AI 调试:遇到报错就把错误扔给 AI,让它改。问了最多次,耗时最长(31 分钟),得分最低 24% ✅ 高分模式(测试得分 65–86%): ④ 生成后追问:让 AI 生成代码,然后追问"为什么这样写"。得分 65% ⑤ 要代码 + 要解释:一条 prompt 同时要代码和原理解释。得分 68% ⑥ 只问概念:从不让 AI 写代码,只问"这个概念是什么意思",自己动手。得分 86%,速度第二快 ─── 为什么会这样? 无 AI 那组遇到的报错中位数是 3 个,有 AI 那组只有 1 个。 那些 RuntimeWarning、TypeError 看起来很烦,但恰恰是它们逼你真正搞懂了一个库。 你绕过了 bug,你也绕过了理解。 ─── 论文里有一句参与者事后的反馈让我印象很深: "我觉得我变懒了。用了 AI 之后,我没有像平时那样仔细看文档和示例。" 这不是个人意志力问题,这是 AI 改变了你学习路径这件事的必然结果。 ─── 一个可以马上用的原则: 学新东西时,把 AI 当老师,不要当外包。 问它"为什么",不要只让它"帮你做"。 遇到报错,先自己想 5 分钟,再去问。 论文全文:arxiv.org/abs/2601.20245
中文
30
109
602
96.4K
陈成
陈成@chenchengpro·
大多数人用 AI 的方式,就像把世界顶级顾问请来,然后只说:"给我点建议。" 没有背景,没有目标,没有约束条件。 输出当然是废话。 我用 Claude 两年了,踩过的坑浓缩成这几条: ❌ 三个最常见的致命错误 1. 没有上下文 — 你不告诉 Claude 你是谁、在做什么、面对谁,它只能给你泛泛而谈的回答 2. 太模糊 — "帮我写个文案"不是指令,是猜谜游戏 3. 不迭代 — 第一次输出不满意就放弃。真正的高手把 Claude 当对话,不断精炼 ✅ 一条好 prompt 的五个要素 1. 角色 + 任务 — "你是一名 B2B 营销顾问,你的工作是……" 2. 背景数据 — 给的信息越具体,输出越精准 3. 详细规则 — 不只说要什么,说清楚怎么做 4. 举例 — 用 标签给参考样本,这是单一最大的质量提升 5. 输出格式 — "用子弹列表,不超过 300 字" 🔥 五个真正有效的高级技巧 ① XML 结构化 prompt 专业营销策略师 我做 B2B SaaS 制定 90 天上市策略Claude 是用 XML 训练的,说它的语言,输出精度直接翻倍 ② 反向提问 — 不自己写 prompt,让 Claude 先问你 10 个问题收集信息再开始。被严重低估的技巧 ③ 深度思考触发词 — "逐步推理后再给出答案" / "从多个角度考虑" — 激活扩展推理,复杂问题必用 ④ 链式提问 — 把大任务拆成 4 步小 prompt,每步输出喂给下一步,最终质量远超一次性提问 ⑤ 反馈循环 — "语气太正式,改口语化" / "第三点太弱,加例子" — 不断逼近你真正想要的答案 Prompt 工程是现在最值得学的 AI 技能。 学会了,相当于 24 小时都有世界级专家随叫随到。 你最常用哪个技巧?欢迎留言分享。
AI Edge@aiedge_

x.com/i/article/2031…

中文
2
0
5
1.9K
陈成
陈成@chenchengpro·
Anthropic 内部用了几百个 Skills,终于把经验公开了。 大多数人以为 Skills 就是"一个 Markdown 文件"——错。 Skills 是文件夹,里面可以放脚本、数据、模板、配置文件……Agent 会自己去探索和调用。这个区别,决定了你写出来的 Skill 是玩具还是生产力工具。 他们把内部 Skills 分成了 9 类,记下来: 1. 库 & API 参考 — 不是文档搬运,是把 Claude 容易踩的坑整理出来,逼它走正确路径 2. 产品验证 — 用 Playwright / tmux 驱动测试流程,让 Claude 录视频、做断言,而不是自己说"应该没问题" 3. 数据获取 & 分析 — 把凭据、Dashboard ID、query 模板都打包进去,Claude 直接拿来用,不用现猜 4. 业务流程自动化 — 一条指令跑完站会汇报、工单创建、Slack 通知全流程,存历史日志让下次更聪明 5. 代码脚手架 — 不只是模板,是把自然语言需求("带我们的 auth 和日志")固化进 Skill,Claude 生成时自动带上 6. 代码质量 & 评审 — 可以 spawn 一个子 Agent 专门找茬,找完茬再修,直到挑不出毛病 7. CI/CD & 部署 — 监控 PR、重试 flaky CI、灰度发布 + 错误率超阈值自动回滚 8. Runbook — 给一个报警截图,自动拉日志、查监控、输出结构化排查报告 9. 基础设施运维 — 清理孤立资源前强制等待确认,给危险操作装护栏 ─── 写好 Skill 的核心原则,只有一句话: 别写 Claude 本来就知道的东西,只写它会搞错的地方。 所以最有价值的部分不是介绍,是 Gotchas 章节——从真实失败里提炼出来的坑,持续更新。 另外几个反直觉的点: • Skills 的 description 字段是给模型看的,不是给人看的——Claude 靠这个决定"该不该用这个 Skill",写错了就是永远不触发 • 数据要存在 ${CLAUDE_PLUGIN_DATA} 里,不然 Skill 升级就丢了 • Skills 常驻 context 是故意的,为了利用 Prompt Cache,动态卸载反而会破坏缓存 • 有个工程师给每个 Skill 加了"最后使用日期",让 Claude 定期审计清理——这个很值得抄 ─── Skills 不是新东西了,但大多数人还在浅用。 与其让 Agent 每次从零开始理解你的系统,不如把你团队的知识、流程、脚手架全都编码进 Skills,让 Agent 站在你们已有的认知上行动。 这才是"让 AI 真正融入工作流"的正确姿势。 原文:x.com/trq212/status/…
中文
4
78
398
49.6K
陈成
陈成@chenchengpro·
用 Claude Code 的同学,你一定踩过这个坑: 新开一个会话,Claude 对项目一无所知。你只能重新解释架构、重新交代背景、重新告诉它上次改了什么——每次都这样。 claude-mem 就是来解决这个问题的。 它的原理很直接:在 Claude Code 每次调用工具之后(PostToolUse hook),自动生成一条「观察记录」存到本地 SQLite。会话结束时再用 AI 压缩成摘要。下次启动新 session,直接注入历史上下文。你不需要做任何事,全自动。 架构上做得挺扎实的: • 6 个生命周期 hook 驱动整个流程 • 独立的 Bun Worker 服务跑在 37777 端口,hook 通过 HTTP 和它通信 • SQLite + FTS5 全文检索,可选接 Chroma 向量库做语义搜索 • MCP 工具支持 3 层渐进式查询(先拿索引,再拿详情),大概能节省 10x token • v10.5.0 还加了基于 tree-sitter 的 AST 代码导航,探索代码结构省 6-12x token 不过有个高频问题值得注意:安装后经常报 bun: command not found。原因是 Bun 安装器只写了 ~/.zshrc,当前 Claude Code session 的 PATH 不更新,导致 worker 起不来。官方用 bun-runner.js 封装了路径检测,但在部分环境还是会炸。遇到的话手动用 ~/.bun/bin/bun 全路径启动 worker 就好。 这类「把 AI 工具的上下文持久化」的思路会越来越主流。现在还是个插件,以后大概会是标配。 github.com/thedotmack/cla…
中文
2
5
32
6.7K