Andy Yang

1.3K posts

Andy Yang banner
Andy Yang

Andy Yang

@AndyEduAI

10+ years Engineer. Building AI tools with my daughter (Build in Public). Hacking learning efficiency via AI x PBL. HK 🇭🇰. Sharing the Dev & Growth journey.

香港 انضم Şubat 2024
1K يتبع698 المتابعون
Mr Panda
Mr Panda@PandaTalk8·
中转站的老板们, 私信发我一下你的项目, 我正在寻求合作。
中文
7
0
15
1.9K
huangserva
huangserva@servasyy_ai·
终于来了!Seedance 2.0 现已在 @TopviewAIhq上线 测试了一下,做了一个视频 提示词👇: Original Dark Fantasy Action Short Film: Inside a dilapidated church, a white-clad warrior and a black-armored opponent launch their final battle amid an atmosphere like a chorus. Stained glass shatters, moonlight penetrates the smoke and dust, and benches are overturned. The camera switches between high-angle overhead shots and low-angle upward shots, focusing on showing the sense of space of the religious building, the sense of oppression of the characters, and the temperament of a fateful decisive battle, just like the climax segment of an original fantasy animated film. A strong hook in the first 2 seconds, stable main body, coherent actions, movie-level composition, real light and shadow, epic sense, strong emotion, high-definition details, suitable for social media communication, avoiding copyrighted characters, avoiding brand logos, and completely original design. 你们可以去试试流水线了!
huangserva@servasyy_ai

x.com/i/article/2036…

中文
24
1
46
3.4K
Andy Yang
Andy Yang@AndyEduAI·
@rwayne 看起来好高端,来一份,谢谢!😀
中文
1
0
1
33
Roland.W
Roland.W@rwayne·
玩流量的焚诀已经交出来了 现在的打法是2M,就是to Money Money Money Money, Must be Funny!
Roland.W tweet media
中文
10
0
14
984
王赞
王赞@wangzan101·
找到自己的生态位是非常重要是,无论是做自媒体还是其他行业,在合适的位置你才有强大的竞争力。 比如你是做 AI 的,且只会 AI, 那你需要和你竞争的将是各路 AI 大神,非常惨烈。 但是如果你的定位是运营里最懂 AI 的,那么你的竞争将会小很多。 暂时的领先可能是因为投入了时间精力,也可能是卡住了生态位,最好是做第二种。 第一种需要你持续学习精进,才能保证竞争力,而第二种只需持续关注,就已经有很深的护城河了。
中文
4
0
10
773
Andy Yang
Andy Yang@AndyEduAI·
如果你是胆小鬼,什么都高风险 这TMD在说我啊 AI时代,胆小鬼更该有勇气。 以前怕失败、怕丢脸、怕未知,现在AI能帮你写代码、润简历、模拟风险、甚至陪你练胆。 低风险试错成本已接近零,还躲在安全线后,就是主动放弃未来。 别再把谨慎当借口,该冲就冲。 让AI背锅,让自己往前一步。 胆小鬼的最高级勇气,就是借AI的翅膀,敢活成自己曾经羡慕的样子。
0x ROAS@0xROAS

everything’s high risk if you’re a p*ssy.

中文
0
0
0
50
SimbaLee
SimbaLee@lipeng0820·
兄弟们,距离2500蓝勾勾还差13个🙋‍♂️请求支援
SimbaLee tweet media
中文
161
1
107
10.2K
Andy Yang
Andy Yang@AndyEduAI·
@berryxia 成本能降下来的话,那是很强劲对手
中文
0
0
0
18
软苏格拉底
软苏格拉底@Graceruansu·
快来吃瓜啦!!我就说早上班的牛马有瓜吃! 我今天早出门5分钟,早到单位20分钟! 我到的时候办公室还没人 不一会我看见我一个女同事从小会议室里出来,看见我楞了一下:Grace你怎么来这么早? 我说脚踩油箱里开来的 刚说完!!! 小会议室里出来了一个隔壁部门的男同事!! 你猜怎么着? 他的脸上有跟我女同事眼影同款布灵布灵!!! 我不理解上班怎么会爱上同事? 我只会想往他们头上扣屎盆子
中文
14
0
14
5.4K
瑠夏 るかぴょん
在X做中文内容 曾经是最难的事 现在算法开始认本地受众了 我们的时代 来得比想象中早
中文
30
0
37
1.7K
Andy Yang
Andy Yang@AndyEduAI·
@Proofsmith deepseek v4应该在agent方面有比较大的进展,如果是同质的,应该不会这么久,可能走的是不同的线路
中文
0
0
0
3
Proofsmith
Proofsmith@Proofsmith·
@AndyEduAI 实际上 gemma 4 的量化版本已经能跑 4it,成本压力比 deepseek 更大。真正的分水岭是谁的 agent 框架对开发者更友好。
中文
1
0
1
5
Andy Yang
Andy Yang@AndyEduAI·
DeepSeek 新信息 与 Gemma 4 发布 额外放大的信号是: 开源本地 AI 的竞争进入新阶段 Google 用高效、agent 友好的多版本 Gemma 4 入场, DeepSeek 则坚守长线原创 + 国产生态。 未来看点可能是: 谁的本地 Agent 链路(工具调用、可靠性、多模态)在真实开发者手中跑得更快、更稳。
宝玉@dotey

晚点 LatePost 发了一篇 DeepSeek 深度报道《V4 发布前的 DeepSeek:特质、组织和梁文锋的独特目标》 mp.weixin.qq.com/s/bYZrKp48Y7Ep… 时间点卡在 V4 发布前夕。信息密度很高,摘几个最值得关注的点。 【1】核心成员离职,但没有成组流失 四位已确认离开的成员里,分量最重的是 DeepSeek-R1 核心作者郭达雅,近期正式离职,可能入职某大厂。另外还有去年底被腾讯姚顺雨挖走的王炳宣(第一代 LLM 核心作者),以及 OCR 系列核心作者魏浩然、多模态方向的阮翀。 猎头给 DeepSeek 成员开出的条件是“翻 2 到 3 倍”,有公司直接给 8 位数总包。加上智谱、MiniMax 上市股价高涨,阶跃和 Kimi 的 IPO 也提上日程,DeepSeek 那份没有明确标价的期权让一些成员产生了疑问。 梁文锋正在想办法给公司估值,给团队更多确定性。 【2】V4 可能 4 月发布,大概率开源最强但不会碾压 1 月左右,V4 的小参数版本已经给到一些开源框架社区做适配。原本乐观预期是春节前后发大参数版,现在推迟到 4 月。 晚点的判断是:V4 大概率仍是开源最强模型,但很难是碾压级的强。原因是进入 Agent 时代后,“强”的标准越来越多元,不同场景、不同用户的体感差异很大。 【3】DeepSeek 的“反主流”路线 梁文锋有两个不太主流的优先级:一是基于国产芯片生态做大模型,DeepSeek 已经在做国产 GPU 适配,把底层算子库从 CUDA/Triton 换成了北大开源的 TileLang;二是做“原创式创新”,包括统一多模态的 Janus 系列、形式化证明的 Prover 系列、用图片方式理解文字的 OCR 方案,甚至招了神经科学和脑科学顾问来探索仿生学习机制。 代价是,DeepSeek 在 Agent 和编程这条当前最热的赛道上投入相对少。R1 之后,智谱更新了 5 版模型,MiniMax 4 版,Kimi 3 版,都在针对 Agent 和 coding 强化。OpenRouter 过去 30 天的 token 消耗排名里,DeepSeek-V3.2 排第 12,前 10 中有 6 个来自中国公司。 【4】不过,变化已经开始 DeepSeek 最近首次在招聘启事中提到了具体产品名,要招 Agent 方向的“模型策略产品经理”,岗位要求里写着“熟悉并深度使用过 Claude Code、OpenClaw、Manus 等知名 Agent”。 梁文锋从去年秋天起开始更多提产品化和商业化。DeepSeek 已有小几十人的产品团队,但目前 C 端仍然只有一个标准 Chatbot。 【5】不卷文化依然在 DeepSeek 可能是全球唯一一个“不卷”的核心 AI Lab。多数员工下午 6 到 7 点走人,早上不打卡,没有明确的绩效考核和截止时间。梁文锋的逻辑是:一个人每天能高质量输出的时间很难超过 6 到 8 小时,加班疲劳下的昏庸判断反而浪费算力。 研究团队约 100 多人,只有梁文锋和研究员两个层级。梁文锋本人参与最多的是基模架构团队,会出席每个团队的会议,是串起不同模块的“粘合剂”。研究员可以自由组队,“有时开始一个新方向,就是因为三五个人都觉得一个 idea 不错,然后就一起做了。” 接近 DeepSeek 的人说:“留下的人多少还是有些理想的。” 在当前这个所有 AI 公司都在拼命卷 Agent 和编程的窗口期,DeepSeek 选择花精力做国产芯片适配和仿生学习,这到底是远见还是错过了最佳出手时机? 完整内容:mp.weixin.qq.com/s/bYZrKp48Y7Ep…

中文
1
0
0
73
苗公子🇨🇳💥
苗公子🇨🇳💥@Miao888_1000X·
蓝V互关 第二期 只要你是蓝V,我就关注你。 我还是p+用户 和我互动 你的帖子必爆💥
苗公子🇨🇳💥 tweet media
中文
257
0
159
7.8K
Tony出海
Tony出海@iamtonyzhu·
DeepSeek V4 可能很强,但不是碾压级的。 1,人才对大模型来说就是第一位的,没有了人才就会落下。 2,DeepSeek 是最早做编程的国产大模型,放弃编程是严重失误。被后来 Kimi 超越。连 OpenAI 都放下面子要追 Claude 编程之路。 3,产品商业化,不管是做用户产品还是卖 API,都要认证去对待。Claude 模型强,人家产品商业能力也强,不冲突。
宝玉@dotey

晚点 LatePost 发了一篇 DeepSeek 深度报道《V4 发布前的 DeepSeek:特质、组织和梁文锋的独特目标》 mp.weixin.qq.com/s/bYZrKp48Y7Ep… 时间点卡在 V4 发布前夕。信息密度很高,摘几个最值得关注的点。 【1】核心成员离职,但没有成组流失 四位已确认离开的成员里,分量最重的是 DeepSeek-R1 核心作者郭达雅,近期正式离职,可能入职某大厂。另外还有去年底被腾讯姚顺雨挖走的王炳宣(第一代 LLM 核心作者),以及 OCR 系列核心作者魏浩然、多模态方向的阮翀。 猎头给 DeepSeek 成员开出的条件是“翻 2 到 3 倍”,有公司直接给 8 位数总包。加上智谱、MiniMax 上市股价高涨,阶跃和 Kimi 的 IPO 也提上日程,DeepSeek 那份没有明确标价的期权让一些成员产生了疑问。 梁文锋正在想办法给公司估值,给团队更多确定性。 【2】V4 可能 4 月发布,大概率开源最强但不会碾压 1 月左右,V4 的小参数版本已经给到一些开源框架社区做适配。原本乐观预期是春节前后发大参数版,现在推迟到 4 月。 晚点的判断是:V4 大概率仍是开源最强模型,但很难是碾压级的强。原因是进入 Agent 时代后,“强”的标准越来越多元,不同场景、不同用户的体感差异很大。 【3】DeepSeek 的“反主流”路线 梁文锋有两个不太主流的优先级:一是基于国产芯片生态做大模型,DeepSeek 已经在做国产 GPU 适配,把底层算子库从 CUDA/Triton 换成了北大开源的 TileLang;二是做“原创式创新”,包括统一多模态的 Janus 系列、形式化证明的 Prover 系列、用图片方式理解文字的 OCR 方案,甚至招了神经科学和脑科学顾问来探索仿生学习机制。 代价是,DeepSeek 在 Agent 和编程这条当前最热的赛道上投入相对少。R1 之后,智谱更新了 5 版模型,MiniMax 4 版,Kimi 3 版,都在针对 Agent 和 coding 强化。OpenRouter 过去 30 天的 token 消耗排名里,DeepSeek-V3.2 排第 12,前 10 中有 6 个来自中国公司。 【4】不过,变化已经开始 DeepSeek 最近首次在招聘启事中提到了具体产品名,要招 Agent 方向的“模型策略产品经理”,岗位要求里写着“熟悉并深度使用过 Claude Code、OpenClaw、Manus 等知名 Agent”。 梁文锋从去年秋天起开始更多提产品化和商业化。DeepSeek 已有小几十人的产品团队,但目前 C 端仍然只有一个标准 Chatbot。 【5】不卷文化依然在 DeepSeek 可能是全球唯一一个“不卷”的核心 AI Lab。多数员工下午 6 到 7 点走人,早上不打卡,没有明确的绩效考核和截止时间。梁文锋的逻辑是:一个人每天能高质量输出的时间很难超过 6 到 8 小时,加班疲劳下的昏庸判断反而浪费算力。 研究团队约 100 多人,只有梁文锋和研究员两个层级。梁文锋本人参与最多的是基模架构团队,会出席每个团队的会议,是串起不同模块的“粘合剂”。研究员可以自由组队,“有时开始一个新方向,就是因为三五个人都觉得一个 idea 不错,然后就一起做了。” 接近 DeepSeek 的人说:“留下的人多少还是有些理想的。” 在当前这个所有 AI 公司都在拼命卷 Agent 和编程的窗口期,DeepSeek 选择花精力做国产芯片适配和仿生学习,这到底是远见还是错过了最佳出手时机? 完整内容:mp.weixin.qq.com/s/bYZrKp48Y7Ep…

中文
2
0
5
1.7K
Andy Yang
Andy Yang@AndyEduAI·
@dotey 万众期待已久,都在等待它能拿出革命性的版本
中文
0
0
0
2.3K
宝玉
宝玉@dotey·
晚点 LatePost 发了一篇 DeepSeek 深度报道《V4 发布前的 DeepSeek:特质、组织和梁文锋的独特目标》 mp.weixin.qq.com/s/bYZrKp48Y7Ep… 时间点卡在 V4 发布前夕。信息密度很高,摘几个最值得关注的点。 【1】核心成员离职,但没有成组流失 四位已确认离开的成员里,分量最重的是 DeepSeek-R1 核心作者郭达雅,近期正式离职,可能入职某大厂。另外还有去年底被腾讯姚顺雨挖走的王炳宣(第一代 LLM 核心作者),以及 OCR 系列核心作者魏浩然、多模态方向的阮翀。 猎头给 DeepSeek 成员开出的条件是“翻 2 到 3 倍”,有公司直接给 8 位数总包。加上智谱、MiniMax 上市股价高涨,阶跃和 Kimi 的 IPO 也提上日程,DeepSeek 那份没有明确标价的期权让一些成员产生了疑问。 梁文锋正在想办法给公司估值,给团队更多确定性。 【2】V4 可能 4 月发布,大概率开源最强但不会碾压 1 月左右,V4 的小参数版本已经给到一些开源框架社区做适配。原本乐观预期是春节前后发大参数版,现在推迟到 4 月。 晚点的判断是:V4 大概率仍是开源最强模型,但很难是碾压级的强。原因是进入 Agent 时代后,“强”的标准越来越多元,不同场景、不同用户的体感差异很大。 【3】DeepSeek 的“反主流”路线 梁文锋有两个不太主流的优先级:一是基于国产芯片生态做大模型,DeepSeek 已经在做国产 GPU 适配,把底层算子库从 CUDA/Triton 换成了北大开源的 TileLang;二是做“原创式创新”,包括统一多模态的 Janus 系列、形式化证明的 Prover 系列、用图片方式理解文字的 OCR 方案,甚至招了神经科学和脑科学顾问来探索仿生学习机制。 代价是,DeepSeek 在 Agent 和编程这条当前最热的赛道上投入相对少。R1 之后,智谱更新了 5 版模型,MiniMax 4 版,Kimi 3 版,都在针对 Agent 和 coding 强化。OpenRouter 过去 30 天的 token 消耗排名里,DeepSeek-V3.2 排第 12,前 10 中有 6 个来自中国公司。 【4】不过,变化已经开始 DeepSeek 最近首次在招聘启事中提到了具体产品名,要招 Agent 方向的“模型策略产品经理”,岗位要求里写着“熟悉并深度使用过 Claude Code、OpenClaw、Manus 等知名 Agent”。 梁文锋从去年秋天起开始更多提产品化和商业化。DeepSeek 已有小几十人的产品团队,但目前 C 端仍然只有一个标准 Chatbot。 【5】不卷文化依然在 DeepSeek 可能是全球唯一一个“不卷”的核心 AI Lab。多数员工下午 6 到 7 点走人,早上不打卡,没有明确的绩效考核和截止时间。梁文锋的逻辑是:一个人每天能高质量输出的时间很难超过 6 到 8 小时,加班疲劳下的昏庸判断反而浪费算力。 研究团队约 100 多人,只有梁文锋和研究员两个层级。梁文锋本人参与最多的是基模架构团队,会出席每个团队的会议,是串起不同模块的“粘合剂”。研究员可以自由组队,“有时开始一个新方向,就是因为三五个人都觉得一个 idea 不错,然后就一起做了。” 接近 DeepSeek 的人说:“留下的人多少还是有些理想的。” 在当前这个所有 AI 公司都在拼命卷 Agent 和编程的窗口期,DeepSeek 选择花精力做国产芯片适配和仿生学习,这到底是远见还是错过了最佳出手时机? 完整内容:mp.weixin.qq.com/s/bYZrKp48Y7Ep…
宝玉 tweet media
中文
27
31
221
51.6K
Andy Yang
Andy Yang@AndyEduAI·
Gemma 4 发布:Google 把 Gemini 核心技术彻底开源本地化了 Google 官方刚刚放出 Gemma 4(2026.3.31 发布),基于 Gemini 技术栈,Apache 2.0 完全开源,直接可商用、可修改、可 fine-tune,无任何附加限制。 核心定位:专为本地硬件上的 advanced reasoning + agentic workflows 设计,不是追求参数规模,而是“在你自己机器上跑得又强又高效”。 主要版本与架构亮点 Edge 系列:E2B / E4B —— 针对手机、笔记本、边缘设备优化,支持实时音频处理。 26B MoE(A4B):Mixture-of-Experts,只激活部分专家,推理速度快、显存友好。 31B Dense:全参数激活,质量上限更高。 多模态:全系列支持图像(可变分辨率/宽高比)+ 视频;小模型原生支持音频(real-time edge processing)。 上下文:Edge 版 128K,大模型 256K。 语言:140+ 语言覆盖,指令跟随和数学推理有显著提升。 技术卖点(Google 强调 + 社区反馈): Agent 友好:原生 function-calling、structured JSON 输出、system instructions 支持,方便构建工具调用、多步 agent。 离线代码生成:本地高质代码助手,适合 workstation 日常开发。 推理能力:数学、复杂指令跟随大幅进步(从 Gemma 3 到 4 有明显跃升)。 效率架构:Dense vs MoE 两种可选,针对不同硬件做极致优化。 大模型本地化和上手机越来越近了,国产大模型要加油!
Google Gemma@googlegemma

Meet Gemma 4! Purpose-built for advanced reasoning and agentic workflows on the hardware you own, and released under an Apache 2.0 license. We listened to invaluable community feedback in developing these models. Here is what makes Gemma 4 our most capable open models yet: 👇

中文
0
0
0
76
Andy Yang
Andy Yang@AndyEduAI·
@iamtonyzhu 大模型本地化部署加速了,上手机不是梦了
中文
1
0
0
81
Tony出海
Tony出海@iamtonyzhu·
Gemma 4 才是开源大基建,那种吃 KPI 的不确定性不适合做基建 还得像 Android 那样靠 Google。 Gemma 4的新功能: — 每个参数的智能:我们的 31B(密集)和 26B(MoE)模型在同等规模下提供了最先进的性能,超越了规模是其 20 倍的模型。 — 商业灵活性:采用宽松的 Apache 2.0 许可证发布,为开发者提供完全的灵活性和数字主权。 — 智能体工作流:原生支持函数调用和结构化 JSON 输出,让您能够构建可靠的自主智能体。 — 多模态边缘人工智能:E2B 和 E4B 模型为移动和物联网设备带来原生视觉、音频和低延迟。 — 长上下文推理:最多可处理 256K 个上下文窗口,允许您在单个提示符中处理整个存储库或大型文档
Google Gemma@googlegemma

Meet Gemma 4! Purpose-built for advanced reasoning and agentic workflows on the hardware you own, and released under an Apache 2.0 license. We listened to invaluable community feedback in developing these models. Here is what makes Gemma 4 our most capable open models yet: 👇

中文
2
0
6
2.3K
Andy Yang أُعيد تغريده
宝玉
宝玉@dotey·
团队内的 skills 管理和维护的一点经验分享(以 codex cli 用的 .agents/skills 目录为例): 1. Git 管理是一定要的。 版本控制太重要了,而且 Skills 都是 Markdown 和脚本文件,天然适合 Git。 2. 用好 Symlink。 不要把 Skills 整个拷贝到 .agents/skills,而是通过 Symlink 直接链接到原始 Skills 的 Repo。 好处有两个:一是版本控制更干净;二是使用中遇到问题,Agent 定位后可以直接在 Repo 里改,改完就能 Review 提 PR。 我日常维护 baoyu-skills 就是这么干的,用的时候发现问题,让 Agent 在当前会话改,改的就是 Repo 本身,流程非常顺。 主要的坑是 Windows 下好像不支持 Symlink,另外首次配置稍麻烦(可以让 Agent 帮你操作)。 3. Skills 的编辑优先让 Agent 来。 改完走 Git 提 PR,这就是最好的协作和发布流程。 4. 验证确实不太好做。 脚本部分可以写单元测试,Skill 的 Markdown 部分只能靠平时积累的测试集,大部分还得人工。 但配合 Git 的版本管理,快速迭代反而更现实:不怕改出问题,出了问题根据 commit history 快速定位,或者直接回滚。 5. 最后提醒一下:大部分 Skills 应该跟着项目走(放项目目录下的 .agents/skills),不要放全局(~/.agents/skills)。 即使是渐进式加载,meta 信息累积起来也会占不小的上下文空间。
宝玉 tweet media
XIN@anxndsgn

不知道大家都是怎么进行团队内的 skill 管理与维护的?今天同事问我,我说用 git,但转念一想,skill 又不是代码,需要的是类似于 notion 那种协作编辑,快速测试,验证发布的流程

中文
20
73
344
32.4K