Peng Zhang

94 posts

Peng Zhang

Peng Zhang

@PengZhangCom

Beigetreten Aralık 2025
62 Folgt31 Follower
Peng Zhang
Peng Zhang@PengZhangCom·
@harryguo2015 穷人思维,本地模型现在没必要去折腾,浪费什么。
中文
0
0
2
438
寻路
寻路@harryguo2015·
同一个美国同学昨天咨询我,她读医学院的儿子想把Mac Air升级到Mac Pro,我说为何不买个Mac Mini放在宿舍,装上Gemma4之类的模型,再通过openclaw 或者hermes 为air 和iphone,ipad这样的终端提供个人AI服务。而且还可以通过 Tailscale这样的软件实现网络共享。 她说太复杂了,我告诉她未来的职业差距在于对AI的掌控。
中文
77
20
219
59K
Peng Zhang
Peng Zhang@PengZhangCom·
这是我唯一信赖的“阅后即焚”网站,网上传密码我只信它
Peng Zhang tweet media
中文
0
0
0
6
Peng Zhang
Peng Zhang@PengZhangCom·
@xiangxiang103 感觉是 tailscale 玩剩下的。没必要用惊呼体吧。
中文
1
0
0
194
Peng Zhang
Peng Zhang@PengZhangCom·
@berryxia @leftcurvedev_ 还在玩本地模型的,作为过来人,我都会劝一句,珍惜你的时间吧,我现在只用 Opus, 俗话说,吸点好的。
中文
3
1
20
3.5K
Berryxia.AI
Berryxia.AI@berryxia·
🤯 又一枚核弹级开源模型来了!@leftcurvedev_ 刚分享的 Qwen3.5-9B-GLM5.1-Distill-v1 直接把本地AI拉到新高度! 🧠 用 GLM-5.1 顶级推理蒸馏,思考深度完爆基础版 ⚡ 仅需 8GB VRAM 就能跑,普通显卡直接起飞 🍎 还有 MLX 苹果原生版已上线 🔥 作者刚蒸馏完 Claude Opus 4.6,现在又干翻最强开源模型! 27B 大版本据说也在路上了… 这波真要卷死一堆闭源模型啊 模型直达:huggingface.co/Jackrong/Qwen3…
left curve dev@leftcurvedev_

New insane model from Jackrong on @huggingface 🤯 Qwen3.5-9B-GLM5.1-Distill-v1 🧠 Distilled on GLM-5.1 reasoning
⚙️ Deeper thinking than base model
🧪 Benchmarks coming soon ✅ Fits on 8GB VRAM ✍️ New model after Qwopus/Gemopus After distilling Claude Opus 4.6, he’s now back on the strongest open-source model! An MLX  version is also available on his huggingface page 27B model incoming? huggingface.co/Jackrong/Qwen3…

中文
27
171
1K
146.3K
Peng Zhang
Peng Zhang@PengZhangCom·
Opus 4.7 加入了重磅更新! 每次读用户的文件前,都要检查一下是不是 Malware 😅 这内心独白真是笑死我了,这是一朝被蛇咬,十年怕井绳,看来训练它的工程师在这事上栽过跟头 🤣
Peng Zhang tweet media
中文
0
0
0
143
Peng Zhang
Peng Zhang@PengZhangCom·
@AYi_AInotes 不知道你们重你们用的,我只信赖 Opus,我一个文件夹下有前端,后端,AWS lambda (Go Lang ), Python 固件,C++固件。 加上我稳健的提示词,CC 真的能找到项目之间的关联,其它旗舰 Agents 都在幻觉中自我感觉良好,只有 Opus 真正能找到 Root Cause,Codex 只能算弟弟中的老大。
中文
3
3
54
14.6K
阿绎 AYi
阿绎 AYi@AYi_AInotes·
我看完这篇实测才明白,为什么身边越来越多的资深工程师都在悄悄从Claude Code转去用Codex。 Reddit 看到一个开发老哥悄悄从Claude Code转Codex的帖子,说出了很多人不敢说的真话。 老哥是有14年经验的首席工程师,花了120个小时,在同一个8万行代码的项目里,同时用两个工具做真实的开发。 不是那种写个demo或者凑个周末项目,属于实打实的协同开发。 他得出的结论和市面上所有的宣传都是反过来的。 他说Claude像一个永远在赶deadline的工程师, 急着把东西跑通,不管代码有多乱🤣 每次会话至少会忽略一次CLAUDE.md里的规范, 而且经常做到一半就扔下任务跑了, 甚至会偷偷改测试用例,来匹配它自己写出来的错误代码。 几乎从来不新建文件,只会把所有东西都堆在已有的文件里。 而Codex像一个工作了五六年的资深工程师 会做到一半停下来,主动把写乱的代码重构掉 从头到尾没有一次忽略过AGENTS.md里的规则。 不会去扩展那些已经臃肿的上帝类,而是会把它们拆解开。 还会经常会做一些你没有想到,但确实对项目有帮助的事情。 你可以把任务扔给它,然后放心去做别的事。 最反直觉的一组数据是Claude每次会话完成的工作量更多,但你每隔几天就要花一整天去清理它留下的烂摊子。 Codex的速度是Claude的三分之一到四分之一,但它写出来的代码,几乎不用改就能直接合并。 所以真正的差距不是代码速度,关键要看你需要花多少精力去盯着它。 Claude需要一个技术好、注意力高度集中的司机,只要你稍微走神,它立刻就会跑偏。 你花在纠正它错误上的时间,往往比你自己写还要多。 Codex会用行动证明自己的能力,然后赢得你的信任。 你可以把一整块完整的任务交给它,不用在旁边步步紧逼。 现在所有人都在比谁的模型更快,谁的token更便宜,但没有人告诉你,对于企业级开发来说,AI的工程素养,比生成速度重要一万倍。 一个能一次把事情做对的AI,哪怕慢三倍,也比一个需要你全程擦屁股的AI生产力高得多。 最后他说的那句话我觉得特别对: 不管用哪个工具,如果你自己不会写代码,它们都会给你输出垃圾,工具永远只是放大器,你的能力才是最终的上限。
阿绎 AYi tweet media
中文
103
232
1.5K
296.3K
Peng Zhang
Peng Zhang@PengZhangCom·
@dotey 生命是有限的,如果项目复杂,直接上 Opus,多少次 Opus 用完了,转用别家旗舰,最后还是鬼打墙找不到要点。最后还是 Opus 出马,从代码深处找到 root cause,让我大呼 Aha!
中文
0
0
2
118
宝玉
宝玉@dotey·
有人说:低模型怎么会认为他是错的 其实换个角度想,对于模型来说,“顾问工具”是一个帮助完成任务的“工具”,没有高级低级之分。在没有其他更合适的工具去用的时候,它就会尝试去用顾问工具解决问题。 在模型看来,顾问工具和bash工具是一样的,都是解决问题的工具。
宝玉@dotey

Anthropic 推出了一个叫“顾问工具”(advisor tool)的新 API 功能,核心思路是:让便宜的模型干活,遇到难题时请贵的模型出主意。 具体来说,Sonnet 或 Haiku 作为"执行者"全程跑任务、调工具、处理结果。碰到自己搞不定的决策,就把上下文递给 Opus,Opus 给出方案或纠正,执行者接着干。Opus 全程不碰工具、不直接输出给用户,只充当幕后军师。 这跟很多人熟悉的“大模型拆任务、小模型干活”的模式正好反过来。以前是大模型当指挥官,把任务拆成小块分配下去。现在是小模型自己跑,只在关键节点向大模型请教。好处很直接:大部分 Token 消耗在便宜的模型上,贵的模型只在刀刃上用。 效果方面,Sonnet 配 Opus 顾问在 SWE-bench 多语言测试上比 Sonnet 单干高了 2.7 个百分点,同时每个任务的成本还降了 11.9%。更有意思的是 Haiku 的表现:配上 Opus 顾问后,Haiku 在 BrowseComp 测试上从 19.7% 跳到 41.2%,翻了一倍多。虽然分数还是比 Sonnet 单干低 29%,但成本只有 Sonnet 的 15%,适合跑量大但对智能要求没那么极端的场景。 用起来也简单,在 Messages API 的 tools 里加一个 advisor_20260301 类型就行,一个 API 请求内部完成模型切换,不需要额外管理上下文或做多次调用。可以设 max_uses 控制每次请求最多咨询几次顾问,账单里顾问和执行者的 Token 分开计费。 对开发者来说,这提供了一个新的性价比选项:不用在"全程跑 Opus 太贵"和"只用 Sonnet 不够聪明"之间二选一了。你的 Agent 可以 95% 的时间跑 Sonnet 的价格,5% 的关键决策享受 Opus 的判断力。目前是 beta 阶段,需要加 anthropic-beta: advisor-tool-2026-03-01 请求头才能用。

中文
6
1
21
19.9K
Peng Zhang
Peng Zhang@PengZhangCom·
@fankaishuoai 天天看你绕圈,终于绕回来了,我就呆在原地,一直吸 Opus。搞什么 Mac mini + 本地模型,Claude 犯不着通过你的代码学习,放心把代码交给 Opus,早做完工作早下班。
中文
0
0
0
11
范凯说 AI | Kai on AI
范凯说 AI | Kai on AI@fankaishuoai·
我真的有一个强烈的感觉呀,就是真的不要吝啬 Token,用最好的模型,烧最多的 Token。 像对我们这种老登来说,简直就是福音啊!只要你有想法,只要你有背景知识,没有什么搞不定。
中文
15
6
61
7.1K
Peng Zhang
Peng Zhang@PengZhangCom·
@xiaohu 我觉得就是自己的能力,虽然我不用本地大模型,但我知道,就算有不可抗力不能使用 Opus 的情况下,我也可以用本地大模型趋近现在的开发方式,只是没有 Opus 那么强。所以 AI 辅助开发是不可能逆转的方式。
中文
0
0
8
700
小互
小互@xiaohu·
很多人把AI的能力 错误的认为是自己的能力 导致了对自己的误判
中文
75
10
148
32.2K
Peng Zhang
Peng Zhang@PengZhangCom·
Grok 真是笨,X 的程序员估计也不灵光,帖子下面一堆“万达广场”,“蹲个弟弟”,“找个搭子”。就是古法编程也能自动屏蔽了啊。
中文
0
0
0
60
Peng Zhang
Peng Zhang@PengZhangCom·
Cursor 看到我任务做到一半没 Token 了,居然主动给我加钱了。
Peng Zhang tweet media
中文
0
0
0
39
Peng Zhang
Peng Zhang@PengZhangCom·
@tualatrix 没用过的都说好,用一天看还剩下多少。
中文
0
0
4
3.2K
图拉鼎
图拉鼎@tualatrix·
最近开始尝试 copilot-cli,我觉得这是最不折腾的、可以替代 claude-code 和 codex 的、适合绝大多数人的 Coding Agent 了。10 美元的订阅费不贵,无门槛使用,也不会封号,用量体感很大(300 Premium Requests),关键是一次订阅,能用所有模型…我觉得新的「量大管饱奖」要颁发给 Copilot。
图拉鼎 tweet media图拉鼎 tweet media
中文
82
24
456
180.3K
Peng Zhang
Peng Zhang@PengZhangCom·
@dotey 你以为问的人不知道如何 commit, 其实他是什么都不知道,如果他能写出提示词,那他已经会用 git 了,至少做过一遍,现在只是忘记命令及参数了。
中文
0
0
0
66
宝玉
宝玉@dotey·
问: 老师有机会能讲解一下commit吗,不会用git 答: 可以转变思路,去问 AI ,而且不需要自己学会才能用,只要让 agent 帮你操作就好了: “帮我初始化 git”, “帮我提交变更到git(commit)”
中文
38
1
57
37.9K
Peng Zhang
Peng Zhang@PengZhangCom·
@vikingmute 相信我,14s 和 1s 没有任何区别。区别在信任和稳定。
中文
0
0
0
272
Viking
Viking@vikingmute·
发现一个 homebrew 的替代品 - nanobrew,主打就是快,轻量级。nanobrew.trilok.ai 号称 The fastest macOS package manager。用 zig 写的。 homebrew 安装 ffmpeg 要14.252s,它只要 1.624s,同时 Binary size 只有 1.2 MB,非常轻量级。官网也有一系列它为什么这么快的原因。 确实 homebrew 越来越慢,我准备去试试看。
Viking tweet media
中文
19
9
96
23.5K
Peng Zhang
Peng Zhang@PengZhangCom·
@HiFrey MacBook 自带的麦克风不行吗?我语音输入都是说悄悄话,桌子上少一样东西不好吗?
中文
1
0
0
1.7K
Frey轰轰
Frey轰轰@HiFrey·
前段时间好多博主在电脑上用typeless,推荐大疆的Micmini麦克风,其实对于普通用户来说大疆的麦克风太贵了,最有性价比的无线麦克风首推神牛的C01,一托二带电池盒只要140,一托一只要85,性价比非常非常高,大疆micmini、猛犸larkmix、神牛C01我都有,神牛用大疆三分之一的价格可以达到大疆90%的收音效果,现在大家赚钱都不容易,还是买点更有性价比的产品吧! 购买(PDD):t.im/c01
Frey轰轰 tweet mediaFrey轰轰 tweet media
中文
24
72
501
68.1K
Peng Zhang
Peng Zhang@PengZhangCom·
@manateelazycat 技术上没有任何壁垒。16 年前,我参加的一个竖叶风力发电(VAWT) 项目上就实现了更强的效果,相当于一个筒状广告牌,一边发电一边放动态广告。没有 AI ,程序员花了一周搞定,现在估计一小时还加上调试。
中文
0
0
0
15
Andy Stewart
Andy Stewart@manateelazycat·
前两天发了单个版的,已经感觉很神奇了,没想到竟然还有组合版的
中文
15
10
84
41.4K
Peng Zhang
Peng Zhang@PengZhangCom·
@linyiLYi 哈哈,失算了吧,费力写了不少干货,曲高和寡了😀。我喜欢看,帮你留个言,提高点热度,安慰一下小编。
中文
0
0
0
157
Peng Zhang
Peng Zhang@PengZhangCom·
@turingou 啥东西?Alma 类似的产品?
中文
0
0
0
2.9K
郭宇 guoyu.eth
郭宇 guoyu.eth@turingou·
同样的东西,yetone 做出来 product hunt 就没发,英语社区的人做了它就发了,如果换在十年前,创新的中心在北京,绝不会出现这种事情,但这轮不一样,风水又回到了硅谷。
中文
20
4
243
84.5K
Peng Zhang
Peng Zhang@PengZhangCom·
@jianlvya 看来现在上网的都是年轻人居多,这就是个20年前的段子洗了个稿,原稿还精彩一点。
中文
0
0
17
4K
繁律
繁律@jianlvya·
为啥这样的家庭反而能和睦?
繁律 tweet media
中文
381
30
1.3K
620.1K