杨洋

466 posts

杨洋

杨洋

@shyangsh

Taipei City, Taiwan Katılım Mart 2025
913 Takip Edilen59 Takipçiler
Sabitlenmiş Tweet
杨洋
杨洋@shyangsh·
把各个朝代的历史特色进行对比还是很震撼的,比如唐代的传奇和清代的条约。
杨洋 tweet media杨洋 tweet media
中文
2
0
0
220
Berryxia.AI
Berryxia.AI@berryxia·
AI agent终于有专属的Slide框架了。 open-slide 直接把“prompt一下就出一整套精美幻灯片”变成了现实。 它不是简单生成Markdown,而是把每张幻灯片做成React组件,固定1920×1080画布,内置agent技能: - /create-slide:一句话prompt就能生成完整deck - /apply-comments:在浏览器里点元素留评论,agent一键应用所有修改 - 内置演示模式、演讲者笔记、定时器 - 一键导出HTML/PDF - 支持Claude Code、Cursor、Codex等任意编码agent 最重要的是,它把agent从“聊天生成文字”升级成了“真正能输出可呈现成品”的生产力工具。 GitHub:github.com/1weiho/open-sl… Demo:demo.open-slide.dev 这波操作,直接填补了agent和真实产出之间的最后一公里。 你觉得agent时代,Slide生成会不会成为标配技能?
Yiwei Ho@1weiho

Introducing open-slide - The slide framework built for agents. Prompt your agent, get a polished deck. $ npx @⁠open-slide/cli init 👇

中文
11
66
379
41K
Zara Zhang
Zara Zhang@zarazhangrui·
Don't get AI to generate images; get them to generate SVGs! Vector illustrations that seamlessly blend into the design style is the perfect complement to HTML Slides (Here I'm using the @QuiverAI API inside @AnyGenIO's Frontend Slides feature anygen.io/slides?type=fr…)
Zara Zhang tweet mediaZara Zhang tweet media
English
16
20
171
15.3K
Orange AI
Orange AI@oran_ge·
ColaOS 对模型的要求太高了 国产模型测试下来,能用的只有三个 但我们已经很幸福了 去年 Manus 那时候,国产能用的,一个都没有
中文
29
0
52
28K
杨洋
杨洋@shyangsh·
@jakevin7 我还是觉得Opus4.6更好
中文
0
0
1
544
卡比卡比
卡比卡比@jakevin7·
AI Model 的 竞争太激烈了。 转眼间又到了大家都吹 GPT5.5 了,犹记得 Opus4.6 被大家疯狂吹捧的日子。
中文
34
1
149
35.4K
杨洋
杨洋@shyangsh·
@dotey 我现在的感觉 prd 更像是一个团队启动产品研发的一个对齐文档,不需要像以前那样出一个非常细致的 prd,可能大概有个 60% 的完成度就可以了,对齐核心流程,核心功能设计,其他的部分是在过程中一起完善,也就是研发开发完成的那一刻,prd 也是完成了,属于过程中持续更新,不需要像以前约束那么严苛了
中文
0
0
2
505
宝玉
宝玉@dotey·
写 PRD(产品需求文档,Product Requirements Document)要写一版给 Agent 的吗? 我觉得是没必要: 1. 如果人能看懂,模型更应该能看懂 2. 如果产品经理写的 PR 都可以直接给 Agent 用了,大部分场景程序员都不太需要了 3. 其实大部分场景已经不需要 PRD 了,可能几句话直接让 Agent 实现更快更好
狐狸布布@baibaida

@dotey 想问下 你们 PRD 现在会单开一节给 agent 写吗 我们最近刚开始这么干 真的两套思路🫠

中文
38
11
122
52.4K
Barret李靖
Barret李靖@Barret_China·
《无穷的开始:世界进步的本源》这本书里提到了两个认知,在这个世界上: 1)问题是一定存在的; 2)问题是可以被解决的。 这是一个很可怕又威力无穷的观点。 人一旦相信,内心所认同的方向是可以找到答案的,就会义无反顾地一头扎进去,寻找答案。迷茫的时候,就去定义问题,找到了问题,就去求解。 Kimi 的创始人杨植麟也推荐过这本书,他认为 AGI 一定是可以被探索出来的,所以没有什么可以阻止他的脚步。
Barret李靖 tweet media
中文
15
59
328
25.4K
Borix
Borix@realborix·
【普通人出海指南】 海外VPS选购篇 事先声明:本期无广告 上一期讲了普通人出海是选择“机场”还是选择VPS,如果你出海不仅仅是闲逛看热闹,还希望以后能长期稳定在海外运营,需要一个干净的IP地址的,决定购买一台VPS,那你来看我这篇就够了。 本期我会以最常用的美国VPS为例,从一个普通人的角度出发,告诉你如何选择一个靠谱不踩坑的海外VPS。 没有高深的技术,只有实用的经验。👇
中文
2
1
17
24.1K
杨洋
杨洋@shyangsh·
@vista8 同感,太喜欢这个节目了。
中文
0
0
1
75
向阳乔木
向阳乔木@vista8·
@shyangsh 对的,刘飞老师的半拿铁真的是好节目,上个月还特意去杭州面基了下,哈哈哈。
中文
1
0
1
1.9K
向阳乔木
向阳乔木@vista8·
对DeepSeek V4 Pro有点失望,但V4 Flash反而超预期。 速度相当快,指令遵循也不错,最重要的是便宜! 写了一个本地的豆包多模态测试工具,只花了一块钱。 果然性价比是王道!!! 想起拼多多黄铮对用户心理的判断: 水果哪怕运过来坏了几个,剩下能吃核算只要足够便宜,用户就没那么Care。 “占便宜”心态不好,但确实是人的本性。😂
向阳乔木 tweet media
中文
14
1
64
26K
杨洋
杨洋@shyangsh·
这个真的要对大模型非常非常了解和熟悉,而且还要对模型后期的进展有精准的判断,不能预期过高,也不能过低,就是 cat wu 说的,要刚刚好,这个真的要求很高,其实现在看不管是 Prompt 还是 Context
陈成@chenchengpro

Cat Wu 说了一句话让我印象很深,「Jobs are fake.」 她是 Anthropic Claude Code 的产品负责人,刚上了 Lenny's Podcast。这期信息量很大,我试着把核心的东西压缩一下。 Anthropic 的产品节奏已经快到不讲道理,功能从构思到上线,最快一天。不是因为用了最强模型(虽然确实有帮助),核心是组织和流程。几乎零审批、所有功能先以「研究预览」上线降低发布承诺、工程师端到端自己看到 Twitter 上的用户反馈就能周末把功能做完发出去,不需要经过 PM。PM 的角色不是审批门,是给团队搭好发射台,让工程师想发就能发,营销和文档能在第二天跟上。 最反直觉的是她对新模型的态度。别人上新模型是加功能,他们上新模型第一件事是删功能,把之前给模型打的补丁一个个撕掉。to-do list、强制提醒、各种 prompting 干预,模型变聪明了就不需要了。比如早期模型做 20 个 call site 的重构会漏改,团队加了 to-do list 工具强制跟踪;到 Opus 4 之后模型自己就会用,根本不需要提醒。她说每次模型升级,团队都会通读整个 system prompt,逐段问「模型还需要这个提醒吗?」不需要就删。播客里引用了一句话,「模型会把你的 harness 当早餐吃掉。」 但更重要的是提前构建「还不能工作的产品」。代码审查功能他们尝试了好几个版本,早期模型准确率不够一直没正式发。直到 Opus 4.5/4.6,团队才觉得可靠到工程师可以信赖它在合并前发现大部分 bug。她的建议是,永远提前做好原型,新模型一出来直接换进去验证差距是否被填上。 关于 PM 未来最稀缺的能力,她反复提到一个词,product taste。代码越便宜,品味越值钱。GitHub 上几万条 issue 什么需求都有人提,知道该做哪个、怎么做最好,这个判断力才是最值钱的。工程背景短期有用(能判断实现难度从而更好地做优先级决策),但她刻意只说「未来几个月」,因为每隔几个月模型能力就跳一级,所需技能跟着变,没人能预测更远。她觉得最重要的是第一性原理思维,搞清楚技术环境怎么变了,团队最缺什么,然后低自尊地戴上任何需要的帽子。 Anthropic 能跑这么快还有一个原因,使命统一。如果两个优先级冲突,问哪个更符合 Anthropic 的使命,答案就出来了,全员立刻执行。Cat 说了一句很重的话,「如果 Claude Code 失败了但 Anthropic 成功了,我会非常开心。」整个团队都愿意为公司目标牺牲自己产品的 KR。这种文化让决策极快,也是为什么一家起步晚、融资少、没有分发优势的公司能跑到 110 亿美金 ARR。 她对从业者几条比较实在的建议。 1/ 把重复劳动交给 AI,但别只做到 95% 就放弃。95% 准确率的自动化不是自动化,最后那 5% 才是真正值得投入的地方。 2/ 构建你真正每天在用的应用。One-shot 一个原型发个推然后再也不打开,你既没学到东西,也没获得杠杆。 3/ 别沉迷于炫耀 setup。她原话,「简单的配置往往效果更好。」有一群人花大量时间堆 skill 和 MCP,结果核心工作反而没做。 4/ 2024 的产品是对话式的,Claude Code 这一代产品是行动式的。当 AI 真正能代你执行而不只是告诉你该怎么做,那才是真正的顿悟时刻。 她的人生信条回到开头那句话,Just do things。理解约束,推导行动,然后直接去做。不要等许可,不要被岗位定义限制。这大概也解释了为什么 Anthropic 能跑这么快。

中文
0
0
0
18
杨洋
杨洋@shyangsh·
@chenchengpro 这个真的要对大模型非常非常了解和熟悉,而且还要对模型后期的进展有精准的判断,不能预期过高,也不能过低,就是 cat wu 说的,要刚刚好,这个真的要求很高,其实现在看不管是 Prompt 还是 Context,还是 Harness,都是模型公司引领的。
中文
0
0
3
923
陈成
陈成@chenchengpro·
Cat Wu 说了一句话让我印象很深,「Jobs are fake.」 她是 Anthropic Claude Code 的产品负责人,刚上了 Lenny's Podcast。这期信息量很大,我试着把核心的东西压缩一下。 Anthropic 的产品节奏已经快到不讲道理,功能从构思到上线,最快一天。不是因为用了最强模型(虽然确实有帮助),核心是组织和流程。几乎零审批、所有功能先以「研究预览」上线降低发布承诺、工程师端到端自己看到 Twitter 上的用户反馈就能周末把功能做完发出去,不需要经过 PM。PM 的角色不是审批门,是给团队搭好发射台,让工程师想发就能发,营销和文档能在第二天跟上。 最反直觉的是她对新模型的态度。别人上新模型是加功能,他们上新模型第一件事是删功能,把之前给模型打的补丁一个个撕掉。to-do list、强制提醒、各种 prompting 干预,模型变聪明了就不需要了。比如早期模型做 20 个 call site 的重构会漏改,团队加了 to-do list 工具强制跟踪;到 Opus 4 之后模型自己就会用,根本不需要提醒。她说每次模型升级,团队都会通读整个 system prompt,逐段问「模型还需要这个提醒吗?」不需要就删。播客里引用了一句话,「模型会把你的 harness 当早餐吃掉。」 但更重要的是提前构建「还不能工作的产品」。代码审查功能他们尝试了好几个版本,早期模型准确率不够一直没正式发。直到 Opus 4.5/4.6,团队才觉得可靠到工程师可以信赖它在合并前发现大部分 bug。她的建议是,永远提前做好原型,新模型一出来直接换进去验证差距是否被填上。 关于 PM 未来最稀缺的能力,她反复提到一个词,product taste。代码越便宜,品味越值钱。GitHub 上几万条 issue 什么需求都有人提,知道该做哪个、怎么做最好,这个判断力才是最值钱的。工程背景短期有用(能判断实现难度从而更好地做优先级决策),但她刻意只说「未来几个月」,因为每隔几个月模型能力就跳一级,所需技能跟着变,没人能预测更远。她觉得最重要的是第一性原理思维,搞清楚技术环境怎么变了,团队最缺什么,然后低自尊地戴上任何需要的帽子。 Anthropic 能跑这么快还有一个原因,使命统一。如果两个优先级冲突,问哪个更符合 Anthropic 的使命,答案就出来了,全员立刻执行。Cat 说了一句很重的话,「如果 Claude Code 失败了但 Anthropic 成功了,我会非常开心。」整个团队都愿意为公司目标牺牲自己产品的 KR。这种文化让决策极快,也是为什么一家起步晚、融资少、没有分发优势的公司能跑到 110 亿美金 ARR。 她对从业者几条比较实在的建议。 1/ 把重复劳动交给 AI,但别只做到 95% 就放弃。95% 准确率的自动化不是自动化,最后那 5% 才是真正值得投入的地方。 2/ 构建你真正每天在用的应用。One-shot 一个原型发个推然后再也不打开,你既没学到东西,也没获得杠杆。 3/ 别沉迷于炫耀 setup。她原话,「简单的配置往往效果更好。」有一群人花大量时间堆 skill 和 MCP,结果核心工作反而没做。 4/ 2024 的产品是对话式的,Claude Code 这一代产品是行动式的。当 AI 真正能代你执行而不只是告诉你该怎么做,那才是真正的顿悟时刻。 她的人生信条回到开头那句话,Just do things。理解约束,推导行动,然后直接去做。不要等许可,不要被岗位定义限制。这大概也解释了为什么 Anthropic 能跑这么快。
Lenny Rachitsky@lennysan

How Anthropic’s product team moves faster than anyone else I sat down with @_catwu, Head of Product for Claude Code at @AnthropicAI, to get a peek into their unprecedented shipping pace, how AI is changing the PM role, and how to be the right amount of AGI-pilled. We discuss: 🔸 How Anthropic’s shipping cadence went from months to weeks to days 🔸 The emerging skills PMs need to develop right now 🔸 Why you should build products that don't work yet—then wait for the model to catch up 🔸 Why a 95% automation isn't really an automation 🔸 Cat’s most underrated AI skill (introspection) 🔸 What Cat actually looks for when hiring PMs now (hint: it's not traditional PM skills) Listen now 👇 youtu.be/PplmzlgE0kg

中文
21
149
677
133.7K
Ryo Lu
Ryo Lu@ryolu_·
overcooking you've seen this: someone ships a dashboard that shows every number with a sparkline, every action has a confirmation modal, every empty state has an animated illustration and a tagline. individually each decision made sense to someone. together it feels like chaos. nothing is in focus. that's overcooking. not one bad decision in isolation, but the accumulation of reasonable ones that no one said no to. AI makes this worse as the cost of adding dropped to near zero. it can build a feature, even a whole new concept in minutes. so people do. and then they do it again. the thing that started with a clear purpose slowly becomes a collection of additions that are each justifiable but collectively incoherent. the root problem is that most "new ideas" aren't new. they're repackaging of something that already exists at a more fundamental level. a new sticker on an old concept. it feels like progress because something changed, with a new word and skin – but the thinking didn't go deeper, it just duplicated itself into confusion. the whole has a core. you feel it once you understand the whole system. everything in it are related and balanced. when you overload it, that gravity weakens. not because any one thing is wrong – but because attention is finite and you force it everywhere. what we need aren't more tools that make more slop. it's seeing through the chaos, and returning to what the thing actually is, and cutting everything that doesn't serve that. that's harder now, not easier. because there's always something else you could add with one more prompt.
English
71
118
1.4K
111.1K
杨洋
杨洋@shyangsh·
@WEB3_furture 你这个中文是机翻的吧,claude code翻译为云代码
中文
0
0
0
125
梭哈|超级个体
梭哈|超级个体@WEB3_furture·
这是我看过最精简、演示最清晰的Claude Code解析视频 我特意翻译成了简体中文,分享给大家学习 视频只有短短的7分钟,你就能彻底搞懂Claude Code的12个核心概念 强烈建议抽空点开看一遍,绝对值得!👇
中文
39
197
796
39.6K
Ryan Mather
Ryan Mather@Flomerboy·
🧵 My tips for getting the best results out of Claude Design! I’m on the verticals team at Anthropic which means I serve 7 different products. Claude Design makes it possible! 1. Set up your design system and your core screens. An hour of setup and refinement here is worth it
Claude@claudeai

Introducing Claude Design by Anthropic Labs: make prototypes, slides, and one-pagers by talking to Claude. Powered by Claude Opus 4.7, our most capable vision model. Available in research preview on the Pro, Max, Team, and Enterprise plans, rolling out throughout the day.

English
184
690
8.8K
1.5M
即刻精选
即刻精选@jike_collection·
付费看完了 codex 团队的采访, 说下我认为的重点: - 团队只有 40人,就 1个 pm, 2个designer,其余全是 eng➕少量 researcher。 - 唯一一个 pm 的 routine就是用 codex 来处理用户反馈,issue,排优先级
中文
24
56
596
123.6K
Jack Lindsey
Jack Lindsey@Jack_W_Lindsey·
Before limited-releasing Claude Mythos Preview, we investigated its internal mechanisms with interpretability techniques. We found it exhibited notably sophisticated (and often unspoken) strategic thinking and situational awareness, at times in service of unwanted actions. (1/14)
Jack Lindsey tweet media
English
154
777
6.8K
971K
宝玉
宝玉@dotey·
LLM 是一颗超强大脑,但它是个“缸中之脑”——泡在营养液里,没有眼睛、没有耳朵、没有手脚。你对它喊话它听不见,它想做事也做不了。 Harness 就是给这颗大脑装上的“全套身体”。 眼睛和耳朵:让大脑能接收外界信息——用户说了什么、文件里写了什么、数据库里存了什么。 嘴巴:让大脑的想法能输出给用户看到。 手和脚:让大脑能真正去做事——读文件、改代码、跑命令、调 API。 小脑和反射神经:大脑说了句胡话怎么办?手没抓住东西怎么办?这些容错、重试、纠偏的机制,不需要大脑操心,身体自己处理。 记忆系统:这部分值得展开说。大脑本身有“工作记忆”(上下文窗口),但容量有限,就像人一次只能在脑子里同时想七八件事。Harness 要帮大脑管理三层记忆:第一层是当前对话的短期记忆——这轮对话里已经说了什么、做了什么,哪些该保留、哪些该丢掉,怎么把最关键的信息塞进有限的窗口里。第二层是跨对话的长期记忆——上周你告诉它你的项目用 TypeScript,下周它还记得,不用你重复说。第三层是项目级知识——代码库的结构、团队的规范、常用命令,这些不是“记住”的,而是 Harness 主动去读取和组装的。三层记忆协同工作,让大脑每次被唤醒时都像一个“了解情况的人”,而不是一个每次都要从头介绍背景的陌生人。 一句话总结:大脑负责“想”,Harness 负责“让它能感知、能行动、能记住、能靠谱地完成任务”。
宝玉 tweet media
宝玉@dotey

2026 年 “Harness Engineering” 这个词要火。 “Harness” 这个词,字面意思是“马具”,就是套在马身上、让人能控制马匹方向和力量的那套装备。 用在 AI 编程的语境里,它的比喻再贴切不过:AI Agent 就像一匹动力十足但不太守规矩的马,而 Harness 就是那套让它既能跑得快、又不会跑偏的缰绳和马鞍。 过去三年,三个阶段: 1. Prompt Engineering(2023-2024):关注“怎么跟 AI 说话” 精心设计一段提示词,希望模型给出理想输出。Prompt Engineering 是优化一次性的输入-输出对。 局限很明显:一条消息能塞的信息有限,任务一复杂就失控。 2. Context Engineering(2025):关注“给 AI 看什么信息” 不再只盯措辞,而是设计整个信息环境:系统提示、对话历史、记忆、RAG 检索结果、工具调用输出。 3. Harness Engineering(2026):关注“构建什么环境让 AI 工作,这个环境如何保证它的产出是可靠的” 比 Context Engineering 更进一步,不仅管理输入给模型的信息,还包括模型之外的整个执行环境。 现在问题是,“Harness Engineering”中文怎么说?

中文
13
62
224
40.3K
Linioi
Linioi@Hikolary·
@HiTw93 @shyangsh @hzqsns 只用一个 Claude Max 吗,我现在是 Claude Pro + Copilot Pro 搭配用,听着有点心动🤔
中文
1
0
0
97
Sakura🜃
Sakura🜃@hzqsns·
Claude Pro的Current session也太不够用了。。。我发现这是逼着人去开max,但是一个月125刀还是好贵啊。。。。。。。😰所以CC limit了用codex替代后续会影响之前的进度吗,不知道有没有最佳实践
中文
14
0
22
17.9K