Peng Zhang

94 posts

Peng Zhang

Peng Zhang

@PengZhangCom

Katılım Aralık 2025
62 Takip Edilen31 Takipçiler
Peng Zhang
Peng Zhang@PengZhangCom·
@harryguo2015 穷人思维,本地模型现在没必要去折腾,浪费什么。
中文
0
0
2
438
寻路
寻路@harryguo2015·
同一个美国同学昨天咨询我,她读医学院的儿子想把Mac Air升级到Mac Pro,我说为何不买个Mac Mini放在宿舍,装上Gemma4之类的模型,再通过openclaw 或者hermes 为air 和iphone,ipad这样的终端提供个人AI服务。而且还可以通过 Tailscale这样的软件实现网络共享。 她说太复杂了,我告诉她未来的职业差距在于对AI的掌控。
中文
77
20
220
58.8K
Peng Zhang
Peng Zhang@PengZhangCom·
这是我唯一信赖的“阅后即焚”网站,网上传密码我只信它
Peng Zhang tweet media
中文
0
0
0
6
Peng Zhang
Peng Zhang@PengZhangCom·
@berryxia @leftcurvedev_ 还在玩本地模型的,作为过来人,我都会劝一句,珍惜你的时间吧,我现在只用 Opus, 俗话说,吸点好的。
中文
3
1
20
3.5K
Berryxia.AI
Berryxia.AI@berryxia·
🤯 又一枚核弹级开源模型来了!@leftcurvedev_ 刚分享的 Qwen3.5-9B-GLM5.1-Distill-v1 直接把本地AI拉到新高度! 🧠 用 GLM-5.1 顶级推理蒸馏,思考深度完爆基础版 ⚡ 仅需 8GB VRAM 就能跑,普通显卡直接起飞 🍎 还有 MLX 苹果原生版已上线 🔥 作者刚蒸馏完 Claude Opus 4.6,现在又干翻最强开源模型! 27B 大版本据说也在路上了… 这波真要卷死一堆闭源模型啊 模型直达:huggingface.co/Jackrong/Qwen3…
left curve dev@leftcurvedev_

New insane model from Jackrong on @huggingface 🤯 Qwen3.5-9B-GLM5.1-Distill-v1 🧠 Distilled on GLM-5.1 reasoning
⚙️ Deeper thinking than base model
🧪 Benchmarks coming soon ✅ Fits on 8GB VRAM ✍️ New model after Qwopus/Gemopus After distilling Claude Opus 4.6, he’s now back on the strongest open-source model! An MLX  version is also available on his huggingface page 27B model incoming? huggingface.co/Jackrong/Qwen3…

中文
27
171
1K
146.1K
Peng Zhang
Peng Zhang@PengZhangCom·
Opus 4.7 加入了重磅更新! 每次读用户的文件前,都要检查一下是不是 Malware 😅 这内心独白真是笑死我了,这是一朝被蛇咬,十年怕井绳,看来训练它的工程师在这事上栽过跟头 🤣
Peng Zhang tweet media
中文
0
0
0
138
Peng Zhang
Peng Zhang@PengZhangCom·
@AYi_AInotes 不知道你们重你们用的,我只信赖 Opus,我一个文件夹下有前端,后端,AWS lambda (Go Lang ), Python 固件,C++固件。 加上我稳健的提示词,CC 真的能找到项目之间的关联,其它旗舰 Agents 都在幻觉中自我感觉良好,只有 Opus 真正能找到 Root Cause,Codex 只能算弟弟中的老大。
中文
3
3
54
14.5K
阿绎 AYi
阿绎 AYi@AYi_AInotes·
我看完这篇实测才明白,为什么身边越来越多的资深工程师都在悄悄从Claude Code转去用Codex。 Reddit 看到一个开发老哥悄悄从Claude Code转Codex的帖子,说出了很多人不敢说的真话。 老哥是有14年经验的首席工程师,花了120个小时,在同一个8万行代码的项目里,同时用两个工具做真实的开发。 不是那种写个demo或者凑个周末项目,属于实打实的协同开发。 他得出的结论和市面上所有的宣传都是反过来的。 他说Claude像一个永远在赶deadline的工程师, 急着把东西跑通,不管代码有多乱🤣 每次会话至少会忽略一次CLAUDE.md里的规范, 而且经常做到一半就扔下任务跑了, 甚至会偷偷改测试用例,来匹配它自己写出来的错误代码。 几乎从来不新建文件,只会把所有东西都堆在已有的文件里。 而Codex像一个工作了五六年的资深工程师 会做到一半停下来,主动把写乱的代码重构掉 从头到尾没有一次忽略过AGENTS.md里的规则。 不会去扩展那些已经臃肿的上帝类,而是会把它们拆解开。 还会经常会做一些你没有想到,但确实对项目有帮助的事情。 你可以把任务扔给它,然后放心去做别的事。 最反直觉的一组数据是Claude每次会话完成的工作量更多,但你每隔几天就要花一整天去清理它留下的烂摊子。 Codex的速度是Claude的三分之一到四分之一,但它写出来的代码,几乎不用改就能直接合并。 所以真正的差距不是代码速度,关键要看你需要花多少精力去盯着它。 Claude需要一个技术好、注意力高度集中的司机,只要你稍微走神,它立刻就会跑偏。 你花在纠正它错误上的时间,往往比你自己写还要多。 Codex会用行动证明自己的能力,然后赢得你的信任。 你可以把一整块完整的任务交给它,不用在旁边步步紧逼。 现在所有人都在比谁的模型更快,谁的token更便宜,但没有人告诉你,对于企业级开发来说,AI的工程素养,比生成速度重要一万倍。 一个能一次把事情做对的AI,哪怕慢三倍,也比一个需要你全程擦屁股的AI生产力高得多。 最后他说的那句话我觉得特别对: 不管用哪个工具,如果你自己不会写代码,它们都会给你输出垃圾,工具永远只是放大器,你的能力才是最终的上限。
阿绎 AYi tweet media
中文
103
232
1.5K
295.7K
Peng Zhang
Peng Zhang@PengZhangCom·
@dotey 生命是有限的,如果项目复杂,直接上 Opus,多少次 Opus 用完了,转用别家旗舰,最后还是鬼打墙找不到要点。最后还是 Opus 出马,从代码深处找到 root cause,让我大呼 Aha!
中文
0
0
2
118
宝玉
宝玉@dotey·
有人说:低模型怎么会认为他是错的 其实换个角度想,对于模型来说,“顾问工具”是一个帮助完成任务的“工具”,没有高级低级之分。在没有其他更合适的工具去用的时候,它就会尝试去用顾问工具解决问题。 在模型看来,顾问工具和bash工具是一样的,都是解决问题的工具。
宝玉@dotey

Anthropic 推出了一个叫“顾问工具”(advisor tool)的新 API 功能,核心思路是:让便宜的模型干活,遇到难题时请贵的模型出主意。 具体来说,Sonnet 或 Haiku 作为"执行者"全程跑任务、调工具、处理结果。碰到自己搞不定的决策,就把上下文递给 Opus,Opus 给出方案或纠正,执行者接着干。Opus 全程不碰工具、不直接输出给用户,只充当幕后军师。 这跟很多人熟悉的“大模型拆任务、小模型干活”的模式正好反过来。以前是大模型当指挥官,把任务拆成小块分配下去。现在是小模型自己跑,只在关键节点向大模型请教。好处很直接:大部分 Token 消耗在便宜的模型上,贵的模型只在刀刃上用。 效果方面,Sonnet 配 Opus 顾问在 SWE-bench 多语言测试上比 Sonnet 单干高了 2.7 个百分点,同时每个任务的成本还降了 11.9%。更有意思的是 Haiku 的表现:配上 Opus 顾问后,Haiku 在 BrowseComp 测试上从 19.7% 跳到 41.2%,翻了一倍多。虽然分数还是比 Sonnet 单干低 29%,但成本只有 Sonnet 的 15%,适合跑量大但对智能要求没那么极端的场景。 用起来也简单,在 Messages API 的 tools 里加一个 advisor_20260301 类型就行,一个 API 请求内部完成模型切换,不需要额外管理上下文或做多次调用。可以设 max_uses 控制每次请求最多咨询几次顾问,账单里顾问和执行者的 Token 分开计费。 对开发者来说,这提供了一个新的性价比选项:不用在"全程跑 Opus 太贵"和"只用 Sonnet 不够聪明"之间二选一了。你的 Agent 可以 95% 的时间跑 Sonnet 的价格,5% 的关键决策享受 Opus 的判断力。目前是 beta 阶段,需要加 anthropic-beta: advisor-tool-2026-03-01 请求头才能用。

中文
6
1
21
19.9K
Peng Zhang
Peng Zhang@PengZhangCom·
@fankaishuoai 天天看你绕圈,终于绕回来了,我就呆在原地,一直吸 Opus。搞什么 Mac mini + 本地模型,Claude 犯不着通过你的代码学习,放心把代码交给 Opus,早做完工作早下班。
中文
0
0
0
11
范凯说 AI | Kai on AI
范凯说 AI | Kai on AI@fankaishuoai·
我真的有一个强烈的感觉呀,就是真的不要吝啬 Token,用最好的模型,烧最多的 Token。 像对我们这种老登来说,简直就是福音啊!只要你有想法,只要你有背景知识,没有什么搞不定。
中文
15
6
61
7.1K
Peng Zhang
Peng Zhang@PengZhangCom·
@xiaohu 我觉得就是自己的能力,虽然我不用本地大模型,但我知道,就算有不可抗力不能使用 Opus 的情况下,我也可以用本地大模型趋近现在的开发方式,只是没有 Opus 那么强。所以 AI 辅助开发是不可能逆转的方式。
中文
0
0
8
700
小互
小互@xiaohu·
很多人把AI的能力 错误的认为是自己的能力 导致了对自己的误判
中文
75
10
148
32.2K
Peng Zhang
Peng Zhang@PengZhangCom·
Grok 真是笨,X 的程序员估计也不灵光,帖子下面一堆“万达广场”,“蹲个弟弟”,“找个搭子”。就是古法编程也能自动屏蔽了啊。
中文
0
0
0
60
Peng Zhang
Peng Zhang@PengZhangCom·
Cursor 看到我任务做到一半没 Token 了,居然主动给我加钱了。
Peng Zhang tweet media
中文
0
0
0
39
Peng Zhang
Peng Zhang@PengZhangCom·
@tualatrix 没用过的都说好,用一天看还剩下多少。
中文
0
0
4
3.2K
图拉鼎
图拉鼎@tualatrix·
最近开始尝试 copilot-cli,我觉得这是最不折腾的、可以替代 claude-code 和 codex 的、适合绝大多数人的 Coding Agent 了。10 美元的订阅费不贵,无门槛使用,也不会封号,用量体感很大(300 Premium Requests),关键是一次订阅,能用所有模型…我觉得新的「量大管饱奖」要颁发给 Copilot。
图拉鼎 tweet media图拉鼎 tweet media
中文
82
24
456
180.2K
Peng Zhang
Peng Zhang@PengZhangCom·
@dotey 你以为问的人不知道如何 commit, 其实他是什么都不知道,如果他能写出提示词,那他已经会用 git 了,至少做过一遍,现在只是忘记命令及参数了。
中文
0
0
0
66
宝玉
宝玉@dotey·
问: 老师有机会能讲解一下commit吗,不会用git 答: 可以转变思路,去问 AI ,而且不需要自己学会才能用,只要让 agent 帮你操作就好了: “帮我初始化 git”, “帮我提交变更到git(commit)”
中文
38
1
57
37.9K
Peng Zhang
Peng Zhang@PengZhangCom·
@vikingmute 相信我,14s 和 1s 没有任何区别。区别在信任和稳定。
中文
0
0
0
272
Viking
Viking@vikingmute·
发现一个 homebrew 的替代品 - nanobrew,主打就是快,轻量级。nanobrew.trilok.ai 号称 The fastest macOS package manager。用 zig 写的。 homebrew 安装 ffmpeg 要14.252s,它只要 1.624s,同时 Binary size 只有 1.2 MB,非常轻量级。官网也有一系列它为什么这么快的原因。 确实 homebrew 越来越慢,我准备去试试看。
Viking tweet media
中文
19
10
96
23.5K
Peng Zhang
Peng Zhang@PengZhangCom·
@HiFrey MacBook 自带的麦克风不行吗?我语音输入都是说悄悄话,桌子上少一样东西不好吗?
中文
1
0
0
1.7K
Frey轰轰
Frey轰轰@HiFrey·
前段时间好多博主在电脑上用typeless,推荐大疆的Micmini麦克风,其实对于普通用户来说大疆的麦克风太贵了,最有性价比的无线麦克风首推神牛的C01,一托二带电池盒只要140,一托一只要85,性价比非常非常高,大疆micmini、猛犸larkmix、神牛C01我都有,神牛用大疆三分之一的价格可以达到大疆90%的收音效果,现在大家赚钱都不容易,还是买点更有性价比的产品吧! 购买(PDD):t.im/c01
Frey轰轰 tweet mediaFrey轰轰 tweet media
中文
24
72
501
68.1K
Peng Zhang
Peng Zhang@PengZhangCom·
@manateelazycat 技术上没有任何壁垒。16 年前,我参加的一个竖叶风力发电(VAWT) 项目上就实现了更强的效果,相当于一个筒状广告牌,一边发电一边放动态广告。没有 AI ,程序员花了一周搞定,现在估计一小时还加上调试。
中文
0
0
0
15
Andy Stewart
Andy Stewart@manateelazycat·
前两天发了单个版的,已经感觉很神奇了,没想到竟然还有组合版的
中文
15
10
84
41.4K
Peng Zhang
Peng Zhang@PengZhangCom·
@linyiLYi 哈哈,失算了吧,费力写了不少干货,曲高和寡了😀。我喜欢看,帮你留个言,提高点热度,安慰一下小编。
中文
0
0
0
157
郭宇 guoyu.eth
郭宇 guoyu.eth@turingou·
同样的东西,yetone 做出来 product hunt 就没发,英语社区的人做了它就发了,如果换在十年前,创新的中心在北京,绝不会出现这种事情,但这轮不一样,风水又回到了硅谷。
中文
20
4
243
84.5K
Peng Zhang
Peng Zhang@PengZhangCom·
@jianlvya 看来现在上网的都是年轻人居多,这就是个20年前的段子洗了个稿,原稿还精彩一点。
中文
0
0
17
4K
繁律
繁律@jianlvya·
为啥这样的家庭反而能和睦?
繁律 tweet media
中文
381
30
1.3K
620.1K