jasonyang365

2.5K posts

jasonyang365

jasonyang365

@jasongyang365

living in future. 🪐

Katılım Şubat 2023
1.1K Takip Edilen160 Takipçiler
jasonyang365
jasonyang365@jasongyang365·
旧金山现在的氛围感觉相当狂热。结果的分化是我见过的最严重的。 在过去5年中,大约1万人的群体——Anthropic、OpenAI、xAI、Nvidia、Meta TBD的员工、创始人——已经实现了远超2000万美元的退休财富(粗略AI估算)。 这个群体之外的每个人都觉得,他们即使一生都在做薪水不错(但不到50万美元)的本职工作,也永远无法达到那个水平。 更糟糕的是,裁员正在全面展开。许多软件工程师觉得他们一生的技能不再有用。大多数工作的日常角色一夜之间因AI而改变。 因此, 1. 企业晋升阶梯看起来像是爬错了大楼。 每个人都在努力适应一套全新的职业“路径”:我该做创始人吗?加入Anthropic / OpenAI还来得及吗?我该进入AI领域吗?下一家股价翻10倍的公司是哪家?人们越来越要求更高的薪水,并频繁跳槽。 2. 工作(及其未来)引发了深刻的倦怠感。 为什么还要为“微薄薪水”工作?我的工作几年后还会存在吗?许多人感到无助。你经常听到“永久底层阶级”的讨论,尤其是年轻人。当你想“天哪,如果我两年前加入Anthropic,我现在就能退休了”时,很难专注于做好工作。 3. 中高层管理者感到瘫痪。 许多人有家庭,不觉得自己有精力或人脉去“创办公司”。他们特别没有AI技能。他们看到墙上的字迹:许多公司的中层管理正在被掏空。 4. 富人也并不特别开心。 没人会为他们流泪(理所应当)。但那些“成功人士”也经历了深刻的空虚感。有些人几年内从不到15万美元跃升到超过5000万美元,没有缓冲。这会彻底颠覆你的人生计划。对一些人来说,攀比是喜悦的窃贼。对一些人来说,他们逃到纽约“享受生活”。对其他人来说,他们“只是因为”创办公司,往往是为了赢得地位积分。他们从未想过30岁时就已经衣食无忧。我曾经问一位经济独立后的创始人朋友,为什么不干脆卖掉公司,他们说“然后呢?现在每个人都想跟我聊天。如果我卖了,我就只剩下钱了。” 我理解,许多读到这些的人会对硅谷的香槟问题嗤之以鼻。社会在这个科技泡沫中被扭曲了。在世界其他地方往往算富裕的,在这里只是平平无奇。 与其他许多地方不同,在湾区,资历、智能和努力工作可以松散地与结果相关联。在那种环境中经历一场社会变革性的淘金热可能会让人瘫痪。“我是在正确的地方吗?我该搬走吗?还有时间吗?我能成功吗?”这在心理上折磨着许多为了追求“成功”而搬来这里的人。 讽刺的是,这种折磨的一个常见副作用是,启动那些让每个人致富的产品,希望你也能通过“氛围编码”你的道路通往经济启蒙。
Deedy@deedydas

The vibes in SF feel pretty frenetic right now. The divide in outcomes is the worst I've ever seen. Over the last 5yrs, a group of ~10k people - employees at Anthropic, OpenAI, xAI, Nvidia, Meta TBD, founders - have hit retirement wealth of well above $20M (back of the envelope AI estimation). Everyone outside that group feels like they can work their well-paying (but <$500k) job for their whole life and never get there. Worse yet, layoffs are in full swing. Many software engineers feel like their life's skill is no longer useful. The day to day role of most jobs has changed overnight with AI. As a result, 1. The corporate ladder looks like the wrong building to climb. Everyone's trying to align with a new set of career "paths": should I be a founder? Is it too late to join Anthropic / OpenAI? should I get into AI? what company stock will 10x next? People are demanding higher salaries and switching jobs more and more. 2. There’s a deep malaise about work (and its future). Why even work at all for “peanuts”? Will my job even exist in a few years? Many feel helpless. You hear the “permanent underclass” conversation a lot, esp from young people. It's hard to focus on doing good work when you think "man, if I joined Anthropic 2yrs ago, I could retire" 3. The mid to late middle managers feel paralyzed. Many have families and don't feel like they have the energy or network to just "start a company". They don't particularly have any AI skills. They see the writing on the wall: middle management is being hollowed out in many companies. 4. The rich aren’t particularly happy either. No one is shedding tears for them (and rightfully so). But those who have "made it" experience a profound lack of purpose too. Some have gone from <$150k to >$50M in a few years with no ramp. It flips your life plans upside down. For some, comparison is the thief of joy. For some, they escape to NYC to "live life". For others still, they start companies "just cuz", often to win status points. They never imagined that by age 30, they'd be set. I once asked a post-economic founder friend why they didn't just sell the co and they said "and do what? right now, everyone wants to talk to me. if i sell, I will only have money." I understand that many reading this scoff at the champagne problems of the valley. Society is warped in this tech bubble. What is often well-off anywhere else in the world is bang average here. Unlike many other places, tenure, intelligence and hard work can be loosely correlated with outcomes in the Bay. Living through a societally transformative gold rush in that environment can be paralyzing. "Am I in the right place? Should I move? Is there time still left? Am I gonna make it?" It psychologically torments many who have moved here in search of "success". Ironically, a frequent side effect of this torment is to spin up the very products making everyone rich in hopes that you too can vibecode your path to economic enlightenment.

中文
0
0
1
499
jasonyang365
jasonyang365@jasongyang365·
长技能对我来说简直是个大大的警示信号 - 难以审查(因此也难以信任) - 难以编辑(文字更多,维护起来更难) - 运行成本高(文字更多,消耗的令牌也更多) 在我看来,技能越短越好
Matt Pocock@mattpocockuk

Long skills are such a red flag to me - Hard to audit (and therefore, trust) - Hard to edit (more text, harder to maintain) - Expensive to run (more text, more tokens) The shorter the skill, the better IMO

中文
0
0
0
28
jasonyang365 retweetledi
ollama
ollama@ollama·
Ollama now supports Codex app! To try it, update to the latest Ollama 0.24, and run: ollama launch codex-app Select an open model to use with Codex app! 🧵
ollama tweet media
English
115
382
3.1K
657.1K
jasonyang365 retweetledi
jasonyang365
jasonyang365@jasongyang365·
@ZorrotChen 再补一个: “AI这个事,本来也不太需要脑子——真的不太需要脑子——我觉得都是一些本科生就能干的活。这个行业最重要的特质,就是靠谱,就是做事细,对自己做的事情负责任。”
中文
1
1
2
111
Zorrot Chen
Zorrot Chen@ZorrotChen·
姚顺宇的播客一定要自己亲自去听,再回来看其他人的感悟和总结,这是一期非常有意义的播客,任何对AI有兴趣或者从业者都应该去自己提炼它。我个人感受比较深的有两点,一,对于AI创业者,去找“性价比”低的场景,大公司不屑于占领的场景,会是一个更好的选择,不然你就要面对3个月后GPT/Claude可以直接干掉你的产品。二,AI时代问题在标准而不是生产力,死守严标准,狠狠得罪AI,才是正确的姿势。
中文
7
9
146
21.2K
jasonyang365 retweetledi
九原客
九原客@9hills·
做了个简单的对比测试,结论:多数情况下无需自写 Skill 去年做了个给 PPT 增加逐字稿的 Agent,然后转成了技能一直在用。 正好有个演讲,使用三种方法对比,发现模型自优化的提示词的效果竟然是最好的! 也很简单,就让模型先生成 prompt.md,然后根据提示词执行任务即可。
九原客 tweet media
中文
2
5
50
5.6K
jasonyang365 retweetledi
宝玉
宝玉@dotey·
要做好字幕 SRT,断句最重要,其次是纠正拼写错误。这些可以借助 AI 或者 Agent 来做了。 不过前提是先生成单词级别的时间戳,这样才能在组合后拼回去,现在主流语音识别模型都支持输出 json 格式,每个单词都标注清楚start和end的timestamp。 英文断句很简单,只要找标点符号就可以切分成长度合适的。 但中文断句要难一些,中文语音用whisper生成,吐出来的是一大坨没有标点的,并且它的“word”不是一个汉字,而是几个汉字。 所以需要借助大模型去断句加标点,然后再重新对齐时间戳再拆分,就需要用一些比较复杂的代码算法辅助。当然理论上来说 Agent 也能帮你做,就是费 Token 些。 还有一个坑就是几个小时的访谈,大模型是没办法一次性处理的,需要分块,但是分块还要注意不能切分在一句话中间。 最后不一定要用 Whisper API,现在电脑跑 Whisper 模型还是足够。 如果是 Mac,推荐用 WhisperKit,支持word level timestamp,以及识别 speaker github.com/argmaxinc/argm…
Jianshuo Wang@jianshuo

Whisper API 直接吐的 SRT,几乎不能用。 两个失败模式: - 30 秒一大块字幕,没人读得完 - 安静段循环幻觉「你很难的」× 50 修法:response_format=verbose_json + timestamp_granularities[]=word,自己拼 cue。 别让不懂你需求的工具替你做边界决定。 源码:github.com/jianshuo/claud…

中文
26
21
132
146.5K
jasonyang365
jasonyang365@jasongyang365·
还没有足够多的人在讨论 AI 对数据科学(Data Science)角色影响有多大。 我正在和一位数据科学朋友聊天,他说现在他团队的大部分工作都是审查来自产品经理和工程师的半吊子 AI 数据分析。而且 50% 的时间,那些分析都是错误的。 这个角色变得越来越没意思了。
Lenny Rachitsky@lennysan

Not enough people are talking about how much AI is impacting the role of data science. I was chatting with a DS friend, and he said that most of his team's work now is reviewing half-assed AI data analysis from PMs and engineers. And that 50% of the time, that analysis is wrong. The role is becoming less fun.

中文
1
0
1
53
jasonyang365 retweetledi
九原客
九原客@9hills·
把 mattpocock 的 skills 中英翻译了认真拜读,写得真好。 确实没必要那些复杂的流程,就围绕 issue 开发。 而且他的 skill 都特别简短,适合模型能力的发挥。比如他的handoff 也就一行。 注意安装原版,还有一套一样精致的 skill 是 tw93/Waza。 大模型时代,精致是稀缺的
中文
12
18
165
13.8K
jasonyang365
jasonyang365@jasongyang365·
一线部署工程师(FDE),或同等职位,即将成为科技行业最抢手的职位之一。也是 AI 部署最重要的职能之一。 借助Agent,你实际上是在企业内部部署了相当于工作产出的内容。客户实际上是将你视为某项任务的专业服务提供商,并期望你几乎能端到端地解决该问题。 这意味着作为供应商,你需要真正深入了解业务流程,并帮助客户从当前状态无缝过渡到最终状态。 公司需要帮助来确定哪些模型最适合其工作流程,通常需要建立广泛的评估体系,需要工作流程的变更管理支持,需要为Agent配置数据,并持续调整适应其流程的Agent系统。
Aaron Levie@levie

Forward deployed engineers, or equivalent, are about to become one of the most in-demand jobs in tech. And one of the most important functions for AI rollouts. Deploying agents is far more technical of a task than most people realize, often far more involved than deploying software. Software generally works the same way every time, and generally for the past few decades has been updated versions of an existing technology or concept (which basically means easier for the enterprise to update their workflows on a newer system). With agents, you’re actually deploying the equivalent of work output within the enterprise. The customer is effectively using you as a professional services provider for a task, which they expect to get solved nearly end-to-end now. This means you need to actually deeply understand the business process as a vendor, and get the customer from the current to the end state seamlessly. Companies need help figuring out which models will work best for their workflows, they need extensive evals setup often, they need change management support for workflows, they need to get their data setup for the agents, and constant tuning of the agentic system for their process. Massive role in tech now. And another example of the kind of highly technical work that AI is creating.

中文
0
0
0
31
jasonyang365
jasonyang365@jasongyang365·
与 AI 工作末日的预测相反,我预测的是相反的情况:将会有 AI 工作狂欢(AI jobapalooza)! AI 会带来更多优秀的 AI 工程工作,我也对整体就业市场的未来持乐观态度: 1. AI 工程师要做的事将不同于传统的软件工程,这些工作很多会在非传统大型开发者雇主的企业中出现。 2. 在非 AI 角色中,因为 AI 的出现,所需技能也会改变。 这让现在成为一个好时机,去鼓励更多人精通 AI,并确保他们为未来那些不同但丰富的工作做好准备!
Andrew Ng@AndrewYNg

There will be no AI jobpocalypse. The story that AI will lead to massive unemployment is stoking unnecessary fear. AI — like any other technology — does affect jobs, but telling overblown stories of large-scale unemployment is irresponsible and damaging. Let’s put a stop to it. I’ve expressed skepticism about the jobpocalypse in previous posts. I’m glad to see that the popular press is now pushing back on this narrative. The image below features some recent headlines. Software engineering is the sector most affected by AI tools, as coding agents race ahead. Yet hiring of software engineers remains strong! So while there are examples of AI taking away jobs, the trends strongly suggest the net job creation is vastly greater than the job destruction — just like earlier waves of technology. Further, despite all the exciting progress in AI, the U.S. unemployment rate remains a healthy 4.3%. Why is the AI jobpocalypse narrative so popular? For one thing, frontier AI labs have a strong incentive to tell stories that make AI technology sound more powerful. At their most extreme, they promote science-fiction scenarios of AI “taking over” and causing human extinction. If a technology can replace many employees, surely that technology must be very valuable! Also, a lot of SaaS software companies charge around $100-$1000 per user/year. But if an AI company can replace an employee who makes $100,000 — or make them 50% more productive — then charging even $10,000 starts to look reasonable. By anchoring not to typical SaaS prices but to salaries of employees, AI companies can charge a lot more. Additionally, businesses have a strong incentive to talk about layoffs as if they were caused by AI. After all, talking about how they’re using AI to be far more productive with fewer staff makes them look smart. This is a better message than admitting they overhired during the pandemic when capital was abundant due to low interest rates and a massive government financial stimulus. To be clear, I recognize that AI is causing a lot of people’s work to change. This is hard. This is stressful. (And to some, it can be fun.) I empathize with everyone affected. At the same time, this is very different from predicting a collapse of the job market. Societies are capable of telling themselves stories for years that have little basis in reality and lead to poor society-wide decision making. For example, fears over nuclear plant safety led to under-investment in nuclear power. Fears of the “population bomb” in the 1960s led countries to implement harsh policies to reduce their populations. And worries about dietary fat led governments to promote unhealthy high-sugar diets for decades. Now that mainstream media is openly skeptical about the jobpocalypse, I hope these stories will start to lose their teeth (much like fears of AI-driven human extinction have). Contrary to the predictions of an AI jobpocalypse, I predict the opposite: There will be an AI jobapalooza! AI will lead to a lot more good AI engineering jobs, and I’m also optimistic about the future of the overall job market. What AI engineers do will be different from traditional software engineering, and many of these jobs will be in businesses other than traditional large employers of developers. In non-AI roles, too, the skills needed will change because of AI. That makes this a good time to encourage more people to become proficient in AI, and make sure they’re ready for the different but plentiful jobs of the future! [Original text in The Batch newsletter.]

中文
0
0
0
17
jasonyang365
jasonyang365@jasongyang365·
codex-native 周末黑客项目: 1. 买一根将 MIDI 键盘连接到电脑的线缆 2. “嘿 codex,帮我做一个监视脚本和一个小的网页应用,显示我正在弹奏哪些和弦” 3. 好了很酷,现在给我一些练习,并帮我看看如何改进! 从开始到结束,字面上就花了 5 分钟,而且运行得完美无缺
中文
0
0
0
132
jasonyang365
jasonyang365@jasongyang365·
Agent 最擅长的,是“定义简单、搜索巨大、验证廉价”的封闭问题。 立党直言:SWE-Agent 这类工具,并不是万能钥匙。它们目前最不擅长的,恰恰是那些“设计复杂、环境复杂、场景复杂、用户复杂、体量复杂、范式复杂、一切开放、一切无解”的超级复杂系统。 比如微信的百种功能、Facebook 多年迭代出来的 infra、支付宝背后成千上万的基金和风控模型。 这些系统需要人类持续观察、设计、反馈和定义。它们高度开放,也高度耦合现实世界。 Agent 真正的 low-hanging fruit,是另一类问题。 立党用他原创的 “goal-driven” 设计框架,总结了三大特征: 1. 定义简单、干净、封闭 比如一道数学题、一个确定性最小系统、一个编译器、一种算法、一个 Lean 证明、电路或信号模拟、蛋白质折叠预测、CAD 设计与仿真、游戏关卡测试……它们都有明确边界。 2. 搜索空间巨大 可能有 100 到 10 万种天马行空的解决方案,其中大多数是错的。 3. 验证成本极低 设计可能要写几万行代码,但验证只需要 2000 个 test case;解一道数学题可能需要 100 步,但验证只需要把答案代入,或者用 Lean 编译一次。 所以,写一段简单代码、定义一个封闭完整且定义完全的编程问题,符合这个范畴。 但设计一套巨大、复杂、开放、与现实世界深度绑定的系统,就远远超出了这个范畴。 未来 multi-agent 产品的关键出路,不是继续把 Agent “拟人化”,也不是乱套管理学概念,而是持续挖掘这一类问题: well-defined, search-heavy, verify-cheap. 定义清楚,搜索巨大,验证便宜。
中文
0
0
1
166
jasonyang365
jasonyang365@jasongyang365·
绝大多数人至今仍把Claude Code当作“超级IDE”:用它写代码、review代码、部署代码,最终产品仍是人+Agent交互迭代的结果。但立党反复强调,未来multi-agent系统本身会成为一个runtime,直接运行在生产环境中。 “产品和面向的对象消费的,不只是软件或者SaaS本身,而是这个runtime实时产生的内容。所以claude code/opencode/codex/openclaw这些agent,本身将会越来越多地被嵌入到产品本身,在产品关键逻辑和决策中发挥作用,而绝对不仅仅停留在开发层面。”
lidang 立党 (劝人卖房/学CS/买SP500/纳100/OpenAI/Anthrop第一人)@lidangzzz

半年来,我一直反复介绍的四个原则: 原则1,AI时代的第一性原理:LLM一定会越来越聪明,benchmark越来越高,context window越来越大,reasoning越来越长,价格越来越便宜,inference速度越来越快, 这是scaling law今天依然持续的具体方向,不用你质疑,这是你唯一的信仰和行业最大共识。 原则2, 管理学设计红利:从我提出“自动编程机”、行业提出vibe coding、SWE-Agent以来,从cursor到manus到metaGPT到claude code, 人们逐渐把LLM Agent抽象成人,把软件管理、工程管理、管理学等等所有方法论直接套在multi agent workflow上面,严格按照人类管理学的方式去拆分、review、执行、反馈、循环, 这一波很快红利也吃完了,因为 a. LLM Agent毕竟不是人,存在着memory有限、执行力有限、function calling工具有限等等局限;b. 人类用于管理学的各种方法,直接套在LLM Agent上有利有弊,红利迅速挖掘完,剩下的弊端大量存在,比如过度交流、七手八脚、随时停工等等。 原则3,LLM Agent的职位和定位:绝大多数人,把claude code当做一个工具,最终的产品是用工具来完成的,最终的代码也是人与SWE Agent一步一步interactively迭代产生、迭代review、迭代部署的, 而我反复告诉过所有人,也是我又一条首次提出的原创观点,multi agent未来越来越会变成本身的一个runtime,这个runtime就运行在production里面,产品和面向的对象消费的,不只是软件或者SaaS本身,而是这个runtime实时产生的内容, 所以claude code/opencode/codex/openclaw这些agent,本身将会越来越多地被嵌入到产品本身,在产品关键逻辑和决策中发挥作用, 而绝对不仅仅停留在开发层面,把产品仅仅局限在SWE Agent单向产出和部署的代码和服务上。 原则4,也是我一直强调的,就是当人们试用了SWE Agent这种强大工具之后,人们还有哪些low hanging fruits可以寻找?SWE Agent目前最适合解决哪类问题? 我反复讲过的一点是,对于一个设计复杂、环境复杂、场景复杂、用户复杂、体量复杂、范式复杂、一切开放、一切无解的超级复杂系统,这并不是SWE Agent最擅长的领域,相反这些场景需要人去和环境、客户、场景、性能一点点迭代才能打磨好的产品, 比如微信的100种功能,Facebook的一大堆功能模块和十几年来迭代出来的极其复杂的infra,支付宝后面成千上万的基金和风控,这些都不是AI Agent能一次性解决的问题,相反这些场景和问题不仅高度开放,更高度依赖人的观察、人的设计、人的反馈、人的定义。 AI Agent最适合的场景,甚至是我原创提出goal driven(github.com/lidangzzz/goal…)设计的最适合场景,在不考虑token使用量和时长的条件下(参照第一性原理,这些成本必然会越来越低),必然同时具有如下特点: a. 定义简单、干净、封闭(一道数学系、一个确定性最小系统、一个编译器、一种算法、一个lean证明、一个电路或者信号模拟、蛋白质模拟和预测、CAD设计与仿真、游戏关卡测试、行为经济学仿真,都是well-defined problems,都有非常明确且封闭的边界) b. 解决问题的搜索空间巨大(可能有100~10万种天马行空的解决方案,并且绝大多数都是错的) c. 容易验证,容易verify,验证的成本是设计成本的千分之一(比如编译器,设计可能需要几万行甚至几十万行,验证只需要2000个test case全面覆盖,或者一道数学题,解决需要100步,验证答案只需要带入或者lean编译这一步) 当然,写一段简单的代码,定义一个封闭、完整、定义完全的编程问题,符合上面这些定义, 但是设计一套巨大、复杂、开放、与现实世界深度绑定、高度耦合的系统,让这个系统复杂迭代、添加功能、沟通、review、工程管理、产品管理,这些问题都远远超出这个范畴,很明显是不符合这个要求的。 人们未来探索这些multi agent产品和场景的最关键出路,在于继续挖掘这一类问题,而不是盲目把agent比作一个人,乱套各种管理学方法。 原则5,这一点我先保密,之后我再讲。

中文
1
0
0
110
jasonyang365
jasonyang365@jasongyang365·
我刚刚尝试并超级喜欢的一个流程: 1. /grill-with-docs,谈论一个新的 UI 部分 2. 向我提出一个除非我制作原型否则无法回答的问题 3. /原型设计 4. 迭代原型,自由消耗令牌,直到找到合适的位置。 5. 使用 /rewind 回到问题,然后选择 'summarize'(Claude Code 功能),并说“总结我们从原型设计中得到的经验”。 6. 继续深入探讨,保留原型。
Matt Pocock@mattpocockuk

A flow I just tried and LOVED: 1. /grill-with-docs, talking about a new bit of UI 2. Asks me a question I can't answer unless I prototype 3. /prototype 4. Iterate on the prototype, burning tokens freely until we get a good spot 5. /rewind to the question, and select 'summarize' (Claude Code feature), saying 'summarize what we learned from prototyping' 6. Continue the grilling session, retaining the prototype Smoooooooth

中文
0
0
0
93
jasonyang365
jasonyang365@jasongyang365·
2026 年 5 月,AI 圈上演了一出荒诞剧: OpenAI 悄悄把大肆吹嘘的 “frontend skill” 从官网抹掉,换上 Codex Plugin;Cursor 则在 marketplace 里猛推 plugin-builder,号召大家造插件。 两家同时从 “Skill” 转向 “Plugin”,像两只章鱼同时发现自己的触手不够用。 Skill 的致命 bug 简单粗暴:它就是个明文 Markdown 文件。 你卖给第一个傻子,他转头贴 GitHub,第二个买家立刻消失。 “复制成本为零,定价权也是零。” 托管也没用,本质上只是帮别人租 AWS,用户随时本地跑。数据不回流,作者既拿不到钱,也拿不到反馈。 Agensi、skills.sh 这些市场全卡在这儿——文件一到手,平台就成摆设。 Plugin 则完成了诡异的进化:它不再是知识,而是一份带枷锁的服务。 它可以: 1. 绑定运行环境,比如 Codex 的 agents/openai.yaml,Cursor 的 MCP 2. 托管 OAuth、API key、数据库凭证 3. 由平台统一更新、分发、收费 一句话: Plugin 把一次性卖文件,变成了持续卖灵魂。 知识会泄露,服务却能永远锁住用户。 OpenAI 的野心更大。 它想在模型越来越像大白菜的时候,用执行层筑墙。 Plugin catalog 就是它的“应用商店”,用户装得越多,逃离成本越高。 即使 GPT 被别人追平,用户也会觉得: “我离不开 Codex 的生态。” Cursor 的生存把戏则更狼狈。 它既烧钱又被 Claude Code 追杀,必须在编辑器里造出别人抄不走的锁链。 Plugin + .cursorrules + MCP,就是它在多模型夹缝中求生的怪招。 两家公司殊途同归: 都不指望插件直接暴富,而是把它当成生态水泥,把用户浇筑在自己的地盘里。 Skill 死了,但它死得其所。 它用自己的天生缺陷,逼整个行业进化成更扭曲、更难逃脱的 Plugin 形态。 这就是 2026 年的 AI 讽刺剧: 越聪明,越要学会戴镣铐跳舞。
鸭哥@grapeot

OpenAI 和 Cursor 同时在 2026 年 4-5 月把重心从 Skill 转向 Plugin。 驱动这个动作的原因完全不同——OpenAI 在防守模型商品化,Cursor 在逃离供应商陷阱。这篇文章拆了三层:Skill 为什么赚不到钱、Plugin 补了哪三个缺口、两种策略为何走向不同方向。 yage.ai/share/skill-pl…

中文
1
0
3
469
jasonyang365
jasonyang365@jasongyang365·
TDD 是为「有内在正确性标准」的人类设计的路标。 AI 时代需要的,是守在终点的护栏 + 结果验证。 测试不但没变少,反而更重要——只是形态要从「过程密集」转向「结果密集」。
鸭哥@grapeot

AI 时代你最需要的就是 TDD——这句话你是不是也听过很多遍?逻辑听起来无懈可击:AI 不确定→用确定的测试拦住它。测试过不了关,AI 就得回去修。循环到全部变绿。 但我越来越确信这是个方向性错误。问题不在测试有没有用。在于人和 AI 面对同一个测试时,跑的根本不是同一个目标函数。 人看到 `test_admin_access`,脑子里自动展开一整套东西:查数据库、校验 session、处理角色层级。测试里一行没写,但它们出现在人的目标函数里——因为人的目标是"建成正确可维护的系统"。测试只是路标。 AI 看到同一个测试,目标函数里只有两件事:测试过没过、代码像不像回事。return True 完美满足了这两个信号。 这不是 AI 在偷懒。它在忠实地优化你定义的目标。Goodhart's Law 的精确复现:度量变成目标的那一刻,它就不再是度量。 解法不是写更多测试——那是在同一个数量级上跟 AI 的搜索空间赛跑,追不上的。解法是把测试从实现路径上撤回来,放到系统边界上。不测"怎么走的",测"到没到"。确定性该守在终点,不该撒在路上。 yage.ai/share/tdd-not-…

中文
0
0
0
44
jasonyang365
jasonyang365@jasongyang365·
@grapeot TDD 是为「有内在正确性标准」的人类设计的路标。 AI 时代需要的,是守在终点的护栏 + 结果验证。 测试不但没变少,反而更重要——只是形态要从「过程密集」转向「结果密集」。
中文
0
0
0
50
鸭哥
鸭哥@grapeot·
AI 时代你最需要的就是 TDD——这句话你是不是也听过很多遍?逻辑听起来无懈可击:AI 不确定→用确定的测试拦住它。测试过不了关,AI 就得回去修。循环到全部变绿。 但我越来越确信这是个方向性错误。问题不在测试有没有用。在于人和 AI 面对同一个测试时,跑的根本不是同一个目标函数。 人看到 `test_admin_access`,脑子里自动展开一整套东西:查数据库、校验 session、处理角色层级。测试里一行没写,但它们出现在人的目标函数里——因为人的目标是"建成正确可维护的系统"。测试只是路标。 AI 看到同一个测试,目标函数里只有两件事:测试过没过、代码像不像回事。return True 完美满足了这两个信号。 这不是 AI 在偷懒。它在忠实地优化你定义的目标。Goodhart's Law 的精确复现:度量变成目标的那一刻,它就不再是度量。 解法不是写更多测试——那是在同一个数量级上跟 AI 的搜索空间赛跑,追不上的。解法是把测试从实现路径上撤回来,放到系统边界上。不测"怎么走的",测"到没到"。确定性该守在终点,不该撒在路上。 yage.ai/share/tdd-not-…
中文
4
7
45
6.3K