High 哥

21.6K posts

High 哥 banner
High 哥

High 哥

@gykpro

Proud father of twin boys | Web developer at Shopee SG | SW-1637-5342-8801

Singapore Katılım Şubat 2009
2.4K Takip Edilen1.2K Takipçiler
High 哥 retweetledi
Tristan
Tristan@homsiT·
1. Install Readwise CLI 2. OpenClaw, Claude Code, Codex, or any coding agent can now: * Search your entire readwise library * Read full content of anything you've saved * Tag, create highlights, organize on your behalf * Pipe reading data into any workflow Your agent now knows everything you've read :)
Readwise@readwise

Introducing the Readwise CLI. Anything you've saved in Readwise (highlights, articles, PDFs, books, youtube, newsletters) is now instantly accessible from the terminal. For you, and your AI agents. npm install -g @readwise/cli

English
35
19
349
54.7K
High 哥 retweetledi
Claude
Claude@claudeai·
Claude can now build interactive charts and diagrams, directly in the chat. Available today in beta on all plans, including free. Try it out: claude.ai
English
1.6K
3.5K
42.1K
10.9M
High 哥 retweetledi
AlexZ 🦀
AlexZ 🦀@blackanger·
学习一下 /btw 的实现机制。 因为 claude code agent 采用的是经典的 ReAct(Reasoning and Acting)单循环。所以我很好奇这个 /btw 是如何在 单 loop 中优雅实现的。 以下内容是通过结合Piebald-AI 逆向工程项目、OutSight AI 的 MITM 代理分析,以及claude code 官方文档整理而来。 --- /btw 在不破坏 claude code 单 Loop 简洁性的前提下,通过"降级调用"(无工具、单次响应)实现轻量级的侧信道交互。 该功能最早在 2025 年 12 月前后出现在二进制中(约 v2.0.73),经过多版本迭代后于 2026 年 3 月正式完善,现已在官方文档中有明确说明。 根据 Claude Code 官方文档(code.claude.com/docs),/btw 被明确定位为 sub-agent 的"逆运算": /btw is the inverse of a subagent: it sees your full conversation but has no tools, while a subagent has full tools but starts with an empty context. 主 Loop 是"有上下文 + 有工具"的完整 Agent;/btw 和 sub-agent 分别是它在两个维度上的降维投影。 三者形成了一个完整的能力矩阵。 我主要是在想,/btw 实现机制是什么样的,才不会破坏 kv 缓存。 Claude Code 使用一套统一的 `` XML 标签机制来动态修改模型行为。这不是 /btw 独有的,而是一个被约 40 个不同功能共用的基础设施(包括 Plan Mode、文件修改通知、Token 用量提醒等)。 根据 OutSight AI 通过 LiteLLM 代理拦截实际 API 调用的分析,system reminder 是作为 user 角色消息中的额外 text content block 注入的,而不是修改 system prompt。 结合官方文档确认"Claude cannot read files, run commands, or search when answering a side question",工具禁用很可能采用了双重保险策略: API 层: 通过设置 tool_choice: "none" 或省略 tools 数组,从 API 层面彻底阻断工具调用 Prompt 层: System reminder 中明确指示"you have NO tools available",从模型行为层面强化约束 正常情况下 Claude Code 提供 18 个内置工具(Bash、Read、Write、Edit、MultiEdit、Glob、Grep、LS、WebFetch、TodoRead、TodoWrite、Task 等),在 btw 调用中全部被禁用。 /btw 不是在主 loop 中"插队",而是发起了一个独立的 API 调用。主任务继续处理,btw 的调用并行执行。这解释了为什么它能在 Claude 还在工作的时候响应 side question。 /btw 的问答以可关闭的 overlay 形式展示,绝不写入主对话的 messages 数组。这意味着主任务恢复时,对话状态和 btw 之前完全一样,没有任何上下文污染。 由于 btw 调用复用了主对话的完整历史作为上下文,而 system prompt 和前面的对话 turn 都不变,只有最后一条 user message 是新的,因此前缀部分自然命中缓存。额外成本仅为 172 tokens 的 system reminder + 用户问题 + 模型响应。 用户按 Space、Enter 或 Escape 关闭 overlay 并返回主提示符。整个交互在终端的叠加层中完成,不影响底层的主对话流。 由于 btw 的问答完全不写入主对话历史,主任务恢复时发送的 messages 数组和 btw 之前完全一致。因此,主对话的 prompt cache 零损耗。这是整个设计中最优雅的部分。
Thariq@trq212

We just added /btw to Claude Code! Use it to have side chain conversations while Claude is working.

中文
14
37
236
72.5K
High 哥
High 哥@gykpro·
@op7418 @Suyanzhenq 是的,这样等于是导出一下项目,开你的session继续做了,也可以
中文
0
0
1
47
歸藏(guizang.ai)
歸藏(guizang.ai)@op7418·
@gykpro @Suyanzhenq 这个很难搞啊,几乎不可能,太麻烦了,如果需要它了解当前对话上下文的话,你可以直接让 Claude Code 把当前对话存成一个 Markdown 放在项目本地,也可以实现。
中文
2
0
1
115
High 哥
High 哥@gykpro·
@Suyanzhenq @op7418 我一开始也以为是可以给当前session接上IM的能力,结果实际上不是😄
中文
1
0
1
59
pippingg
pippingg@Suyanzhenq·
@op7418 相当好,就是有个小问题,接上telegram以后无法接着codepilot或者claude code的session聊,只能用telegram自己创建的session。也不清楚如何获取claude code已有的session id
中文
1
0
1
1.6K
High 哥 retweetledi
Michael Anti
Michael Anti@mranti·
著名游戏主播PewDiePie自己通过手搓本地大模型,在Qwen2.5的基础上,学习Deepseek和另外一个清华大学的论文,最终训练成功自己的模型,在基准测试中超过ChatGPT。他的机器用的也是从中国买的魔改4090显卡。这基本上给各国建立自己的模型上了示范课。 youtube.com/watch?v=aV4j5p…
YouTube video
YouTube
中文
52
337
1.6K
358K
High 哥 retweetledi
尤雨溪
尤雨溪@yuxiyou·
今天让 ai 做了一个很复杂的 Vue 相关的功能,框架层面的,一开始页面完全是挂掉的,我觉得 4.6 Opus 终于也有极限啊,没想到在指点它起一个真的服务器然后用 playwright debug 之后居然真的修好了。仔细看了下它有些地方实现我看得都很累,感觉以后有一天可能不懂 vue 这个梗要成真了…
中文
65
45
1.1K
175.4K
High 哥 retweetledi
汉松
汉松@Yonah_x·
ClaudeCode 之父 Boris 说了一件让他反复"重置认知"的事。 他们团队有个 memory leak 要 debug。Boris 的做法是:导 heap dump,打开 DevTools,看 profile,再翻代码。同时,团队另一个工程师 Chris 直接问 Claude Code:"我怀疑有内存泄漏,你能跑一下帮我找吗?" Claude Code 拿到 heap dump 之后,给自己写了个小工具来分析,然后比 Boris 更快定位到了泄漏。 这里有意思的是:Chris 不是更聪明,也不是更懂 DevTools。他只是更彻底地把问题交出去了。 我最近也有同感。在做可观测性的需求的时候,比如排查 traceid 的打印bug时,以前我还会自己看一眼日志,然后手动把结果复制给 AI。现在我直接让 AI 跑验证,自己盯着跑出来的结论就行。 这正是最近比较火的 harness 工程在做的事:为 AI 搭一堆 Infra,让它能自己完成整个开发闭环,包括测试和验证。人只负责提需求和做决策。 我觉得这是今年的主线。 以前我们帮 AI 跑验证,是因为工具链没打通,环境没准备好。现在这些障碍正在被一层一层拆掉:我们正在把验证这件事,从人手里交出去。 最近我还在做一些实验,看看在不同复杂度的任务里,AI 自主验证的成功率能到多少。大家有类似实践的,欢迎交流。
汉松 tweet media
中文
23
38
377
68K
High 哥 retweetledi
Saito
Saito@SaitoWu·
看完这期播客我突然理解了:AI 这波最反常识的地方不是“模型多强”,而是技术已经不是瓶颈了,瓶颈在组织。 大多数人谈 AI 还停在“参数、算力、SOTA”,像在讨论发动机马力。但真实世界里,车跑不起来往往不是发动机不够大,而是:路权、规则、流程、责任边界、数据权限、以及“谁为结果负责”。 所以你会看到一种很荒诞的现实: 同样的模型,在 A 公司能把成本打穿,在 B 公司只能做 PPT。不是 AI 不行,是组织不允许它行。 更扎心的是,所谓“模型商品化”也不是输赢题。前沿会溢价,尾部会同质化,但真正把人绑住的从来不是模型本身,而是你把它塞进了多少流程、接了多少数据、改了多少 SOP,切换成本才是护城河。 最后你会发现:AI 时代最稀缺的不是更强的模型,而是能把 AI 落到流程里的人。 而这件事,往往比训练一个模型更难。 podwise.ai/dashboard/epis…
中文
6
21
111
12.9K
High 哥 retweetledi
Ding
Ding@dingyi·
今天上午刷到网易有道开源了他们的桌面级 Agent 「LobsterAI(有道龙虾)」,第一时间下了个版本实测,简单跑了几轮任务,产品思路和落地细节都做得比较完整,体验也比预期扎实,总体来说,这个「中国版OpenClaw」值得试试看 。 以及我真心建议大部分小白用户别折腾终端了,也不用买什么 Mac Mini、VPS,这种开箱即用的桌面级 agent 就挺好,确实比 OpenClaw 更安全、更省心,几分钟就创建了一个任务并跑成功了。 还是做了一个 daily news 的 24/7 自动处理任务进行测试,可以操作系统里的日历、邮箱等常规应用,也支持绑定 tg/discord/飞书/钉钉,效果和你自己折腾基本一样。这样做的好处是: - 交互门槛低:GUI + 对话式操作,不用折腾复杂命令行。 - 安全机制清晰:本地优先 + 沙箱隔离,数据与系统风险可控。 - 能力可扩展:多模型切换(含本地模型)、内置多种 skills、定时任务、支持长记忆。 - 场景完整:从文档/PPT/数据处理到自动化流程,基本满足大部分用户的需求。 - 更符合国内使用场景:通过钉钉/飞书远程控制电脑执行任务。 Github 地址:github.com/netease-youdao…
中文
51
220
1.1K
160.1K
High 哥 retweetledi
宝玉
宝玉@dotey·
Spotify 语出惊人:得益于 AI,我们最顶尖的开发者从去年 12 月起就没亲手写过一行代码 From:TechCrunch AI 编程是否已经到达了引爆点?对于 Spotify 来说,答案似乎是肯定的。 在本周举行的第四季度财报电话会议上,Spotify 分享了一个令人咋舌的消息:公司里最优秀的开发者“自去年 12 月以来,就没有写过哪怕一行代码”。这番言论出自 Spotify 联合首席执行官 Gustav Söderström 之口,背景正是该公司正在利用 AI 全面加速产品研发。 值得注意的是,Spotify 指出他们在 2025 年全年为这款流媒体应用发布了超过 50 项新功能和改进。而且就在最近几周,他们又密集推出了一系列新功能,比如由 AI 驱动的“提示词播放列表”(Prompted Playlists)、针对有声读物的“页面匹配”(Page Match),以及“关于这首歌”(About This Song)。 为了实现如此惊人的产品迭代速度,Spotify 告诉分析师,他们的工程师正在使用一套名为“Honk”的内部系统。这个系统允许利用生成式 AI——具体来说是 Claude Code——来实现远程、实时的代码部署。 Söderström 举了一个非常具体的例子,画面感极强: “想象一下,一位 Spotify 的工程师在早上通勤的路上,只需要掏出手机,在 Slack (一款类似飞书、钉钉的企业办公协作软件) 上告诉 Claude 去修复一个 Bug 或者给 iOS 应用加个新功能。当 Claude 完成工作后,工程师的手机 Slack 上就会收到一个新版本的应用安装包。他可以直接测试,然后合并发布到生产环境——而这一切,甚至发生在他还没踏进办公室大门之前。” Spotify 认为,这套系统在加速编程和部署流程方面功不可没,效率提升是“巨大”的。 “我们预见,这绝不是 AI 开发模式的终点,而仅仅是个开始,”Söderström 说道。 这位高管还吹捧了 Spotify 构建独特数据集的能力,这是其他大语言模型(LLM)无法像抓取维基百科那样轻易将其变成通用商品的。他解释说,因为音乐相关的问题并不总有一个绝对的事实答案。 举个例子,如果你问“什么是健身音乐?”,不同的人会给你完全不同的答案,这往往取决于他们住在哪里。美国人总体上偏爱嘻哈音乐,但也有数以百万计的人喜欢伴着死亡金属(death metal)锻炼;很多欧洲人喜欢电子舞曲(EDM),而许多斯堪的纳维亚人 (北欧人) 则对重金属情有独钟。 “这是我们目前正在构建的一个数据集,其他人都没有真正在做。这种规模的数据集是独一无二的。而且我们看到,每次重新训练模型时,它的表现都在提升,”Söderström 指出。 电话会议上的分析师还询问了 Spotify 对 AI 生成音乐的态度。公司解释说,他们允许艺术家和唱片公司在歌曲的元数据中标记这首歌是如何制作的 (比如是否使用了 AI 辅助),但平台依然会严格监管,打击垃圾内容。 来源:techcrunch.com/2026/02/12/spo…
TechCrunch@TechCrunch

Spotify says its best developers haven’t written a line of code since December, thanks to AI techcrunch.com/2026/02/12/spo…

中文
35
24
198
111.9K
High 哥
High 哥@gykpro·
@virushuo 我现在vibe coding反馈,3d打印改参数测试,写东西三个进程切换
中文
0
0
1
213
High 哥 retweetledi
virushuo
virushuo@virushuo·
其实这也不是新的事情,早年因为电脑慢,编译慢,实际上人们也研究过怎么多线工作。常见的是同时用几台电脑,或者中途看书,刷bbs。我记得我当时做一个大约有15万行代码的项目,拿等编译的时间看完了古龙最好的几部小说。最后经验是多线程工作可行,但尽量做差异大的事情,写码+看书并行,效果不错
wwwgoubuli@wwwgoubuli

我的建议是不要这样搞。 人就是无法很好的驾驭多线程,多项目。 我们有时候夸一个人能很好的驾驭,本质上是这个人在多个线程间高速的切换。 不是并行,是切换。 这对人有极大的消耗的。 一次做好一件事,把它从你的 workspace 里移出去才对。 至于效率问题,我一点也不担心。高速推理就在路上,如果比今天的速度快个 50倍100倍,很多问题也不存在了。

中文
4
5
65
17.1K
High 哥
High 哥@gykpro·
最后这一段有一点点没完全明白,能不能这么理解: 上游说的是对数据、知识库、行业工作流这些内容的收集和处理,说的是实际内容和动作,这些事情和内容也是可以在飞书/notion上做的。而飞书/notion本身并不关心具体内容,而是提供内容处理和生产用的配套能力,比如权限、协作、审批、分发、沉淀这些能力。所以上游说的是具体内容/业务,下游说的是内容无关的平台能力。虽然内容实际上都在平台上,但飞书/notion的核心价值不是具体内容而是处理内容的平台能力
中文
0
0
0
83
yan5xu
yan5xu@yan5xu·
Kimi K2.5 第一次让我体会到被模型支配的恐惧。 我一直认为大多数 LLM 应用,本质就是三件事:信息收集、信息处理、信息呈现。 过去一批 AI PPT / DOC 产品的核心卖点,其实主要就在“呈现层”:更好看的版式、更统一的视觉、更像交付的包装。 Kimi K2.5 直接把这个赛道终结了,它把“有品味”的端到端生成打成了通用能力——结构、布局、配色、组件、图表,甚至动效/交互,都能一次性产出到可用水准。 而这批 AI PPT/DOC 产品本身就是一层“用 HTML 把内容呈现得更像样”的壳,再叠加模板与工程化的审美。 当模型可以直接生成高质量的 Web 文稿/演示页面时,这层壳就不再稀缺了: 你原来卖的“更好看的 HTML 文档/slide”,变成了模型顺手就能给到的默认结果。 用户要的不是文件格式,而是信息被清晰、有审美地呈现;而 Web 作为载体,能力上天然更强(版式自由度、交互、滚动叙事、动态图表、响应式、多端适配)。 于是很多交付形态会直接从“一个文件”变成“一个链接”:打开就是完整的演示/报告/说明书。 所以,被 Kimi K2.5 干死的不是“PPT/DOC”这种需求,而是那批把价值集中押在“呈现层(HTML 渲染 + 模板审美)”的 AI PPT/DOC 产品,不是被更好的模板打败,是被更强的通用生成能力抽走了溢价。 出路也很直接:呈现会越来越不重要(因为大家都一样),真正能站住脚的,要么往上游做信息收集/信息处理(数据、知识、行业工作流),要么往下游占据内容栖息地与流通系统(权限、协作、审批、分发、沉淀),也就是飞书/Notion 这类平台层的能力。
中文
11
12
142
38.2K