BLANPLAN | 空界計劃

902 posts

BLANPLAN | 空界計劃 banner
BLANPLAN | 空界計劃

BLANPLAN | 空界計劃

@blanplan

https://t.co/YpGj1TVunL CTO|前百度|聊 AI、产品、工程与创业、分享真实的一线经验

가입일 Şubat 2025
249 팔로잉156 팔로워
BLANPLAN | 空界計劃
@wey_gu gpt重写完渲染栈之后再profile到Zig内部这种debug路径,几年前得耗一周。AI把重写成本压下来之后,人对新代码熟悉度跟不上,build config这层反而容易漏。先查release flag是这种情况的标准动作。
中文
0
0
0
11
Wey Gu 古思为
Wey Gu 古思为@wey_gu·
说一个昨天的事儿,我用了几个小时的 gpt 5.4 xhigh 把 con 的 terminal 渲染端到端全都按照性能优先重写了一遍,然后一直 profile 到 zig 内部,才发现,我发现的 TUI resize 性能问题竟然是因为我的 libghostty build 里没开性能优化 flag 🥲 不过借着这个过程,con 的性能更好了,抽象更合理了...
Mitchell Hashimoto@mitchellh

Huge W for Zig, used for inference for K2.6. If you want absolute performance with exacting control over what your CPU executes and the way memory is laid out, Zig is the way.

中文
2
4
26
8.4K
BLANPLAN | 空界計劃
@theo The 2% figure probably came from an internal telemetry cut that doesn't match what users run into on the signup funnel. Product metric definitions and shipped UX diverge all the time. The bad-at-coding framing jumps past that measurement layer.
English
0
0
1
84
Theo - t3.gg
Theo - t3.gg@theo·
Anthropic said only 2% of new users would see the “claude code requires max tier” change. 100% of users saw it. They were either lying or bad at coding. We have now confirmed it was the latter. Man, these guys are TERRIBLE at writing code.
Fung@Funggx

@theo @TheAmolAvasare They just changed it back

English
38
9
306
15.7K
BLANPLAN | 空界計劃
@mtrainier2020 2023年上半年选套壳+人工的公司不止这一家,那会儿chatgpt对中间层价值摧毁的速度没人在决策模型里算得对。上市公司境外买NVDA/OpenAI股票卡在外汇管制和合并报表口径上,不是管理层想对冲就能对冲。教培机构在双减之后接盘要扛合规风险,下下策这条路本身堵得更死。
中文
0
0
0
256
Rainier
Rainier@mtrainier2020·
这家曾经百亿的公司,现在市值已经不到1个亿了。 管理层的短视以及无能,导致公司走到今天的地步。 1. 在坐拥大量用户的情况下,套壳+人工。就能维持自己的市值。 当chatgpt的二道贩子,搞搞自己小模型,搞搞批发就能减少自己下降的速度。 2. 那市值还可以的时候。立马买一些nvda,openai股票。作为对冲。 3. 下下策买下实体的一些教培机构。 保住基本盘。 怎么都不至于死的这么惨。
NoLimit@NoLimitGains

🚨 Meet the first company officially wiped out by AI. Which one is next?

中文
8
5
55
44K
Frank Wang 玉伯
Frank Wang 玉伯@lifesinger·
Cursor 值这个钱 为 @cursor_ai 开心 如果不是因为 Cursor 打样 我可能不会出来创业
中文
1
0
11
914
BLANPLAN | 空界計劃
@zarazhangrui My spec-writing is slower than the agents run. A clean task takes me 15 minutes to define and the agent closes it in 5. Adding more agents just exposes that ratio.
English
0
0
0
5
Zara Zhang
Zara Zhang@zarazhangrui·
Have you ever felt like you have more agents/AI tools than you have work for them to do
English
45
2
68
4.6K
BLANPLAN | 空界計劃
@AYi_AInotes Design System社区几年前就尝试过把token写进文本文件的方案。设计意图会随产品阶段漂移,每个季度都得重写一次,静态文件赶不上变化速度。contrast ratio可以用linter拦住,按钮分量感这类judgment还得靠人在review里盯,DESIGN.md离设计系统unix时刻还有距离。
中文
0
0
0
61
阿绎 AYi
阿绎 AYi@AYi_AInotes·
Google今天放的这个东西,可以说是设计语言的Unix时刻了,可能会重新定义未来所有的设计工作。 它不是又一个AI画图工具, 也不是又一个Figma插件, 它叫DESIGN.md, 就是一个纯文本的Markdown文件。 前面用YAML写精确的设计token, 什么颜色是主色,什么字体是标题,圆角多大,间距多少。 后面用自然语言写,每一个设计决策的为什么, 这个暖米色做背景是为了更柔和, 这个深绿色做主色是为了传递权威感, 什么场景该用什么,什么绝对不能用。 就这么简单, 但它解决了AI设计最大的,也是所有人都视而不见的痛点。 以前AI做设计,永远在猜, 它只能看到颜色代码,看不到颜色背后的意图。 也不知道这个蓝色是品牌的命根子,还是我随便选的一个。 所以它永远会给你生成看起来还行,但哪里都不对的东西。 现在不用猜了, Agent会严格遵守所有规则。 甚至会自动帮你检查WCAG可访问性。 David East现场演示,Agent生成了一个按钮, linter立刻报错说对比度只有1.0:1,不符合标准, Agent自己就改成了正确的颜色。 最狠的是,它不绑定任何工具, 你可以把这个文件扔给Stitch, 扔给Claude, 扔给Cursor, 扔给任何你想用的Agent。 设计系统终于不用锁死在Figma里了,也不用锁死在Tailwind的config里了。 它变成了一个可以复制,可以移植,可以版本控制的纯文本。 这里有一个反直觉的真相,就是你把规则写得越死,AI反而越有创造力。 以前你怕限制它,给它模糊的要求, 它给你一堆乱七八糟的东西。 现在边界划清楚了, 它反而敢在边界里大胆创新,不会搞出崩坏的界面。 以前设计散落在无数个Figma文件里,散落在无数个代码配置里, 散落在无数个设计师的脑子里。 现在第一次,有了一个单一的真相源,人类能读,机器也能懂。 以后设计师的工作,再也不是只画一个个界面了,维护好这一个文件。 定义好设计的灵魂,剩下的所有执行,全部交给AI。
Stitch by Google@stitchbygoogle

Today, we’re open-sourcing the draft specification for DESIGN.md, so it can be used across any tool or platform. We’re also adding new capabilities. DESIGN.md lets you easily export and import your design rules from project to project. Instead of guessing intent, agents know exactly what a color is for and can even validate their choices against WCAG accessibility rules. Watch David East break down this shared visual language in action👇. New capabilities and links in 🧵

中文
15
19
150
21.9K
BLANPLAN | 空界計劃
@himself65 walk-away那10亿美元已经超过Cursor一年前整个公司估值。Musk出这个保底就是对Cursor独立运营一年还能长的上行空间下注。Cursor拿到Colossus训练算力和12个月独家期,这笔带call option的融资结构,不算典型exit。
中文
1
0
0
2.2K
Bread🍞
Bread🍞@himself65·
Cursor被SpaceX收购了,很好的exit, 至少Cursor门清自己打不过Anthropic。
中文
39
7
171
53K
BLANPLAN | 空界計劃 리트윗함
Arena.ai
Arena.ai@arena·
Exciting news - GPT-Image-2 by @OpenAI has claimed the #1 spot across all Image Arena leaderboards! A clean sweep with a record-breaking +242 point lead in Text-to-Image - the largest gap we’ve seen to date. - #1 Text-to-Image (1512), +242 over #2 (Nano-banana-2 with web-search aka gemini-3.1-flash-image) - #1 Single-Image Edit (1513), +125 over #2 (Nano-banana-pro aka gemini-3-pro-image) - #1 Multi-Image Edit (1464), +90 over #2 (Nano-banana-2) No model has dominated Image Arena with margins this wide. Huge congratulations to @OpenAI on this major breakthrough in image generation! More performance breakdowns by category in the thread below.
Arena.ai tweet media
OpenAI@OpenAI

Made with ChatGPT Images 2.0

English
111
388
3.4K
675K
BLANPLAN | 空界計劃
@Jackywine Mac 在轻度 AI 工作流里好用,推给 Twitter builder 这类用户成立。serverside 推理和训练的生产环境 Linux + CUDA 生态仍然是第一选择,Mac 主场是走到哪写到哪这个场景。一定要买的判断漏掉了后半截工作流。
中文
0
0
0
87
Jackywine
Jackywine@Jackywine·
为什么玩 AI 一定要买苹果电脑? 我给我自己的朋友、学员们都推荐了苹果电脑 原因是: 屏幕不会差,眼睛舒服 总量不重,方便拿到任何地方开始办公 触控板灵敏,稍微设置即可不用带鼠标 续航够顶,我直接拿出去玩一天 AI: CC 一个命令就安装 自带 Terminal 总结:一定要买!
Jackywine tweet media
中文
10
9
62
14.9K
BLANPLAN | 空界計劃
@techeconomyana Anthropic 和 OpenAI 都锁进 Google/AWS/Microsoft 的 multi-cloud 协议,三家 hyperscaler 把大模型训练算力供给牢牢分片。growth 超出三家扩容速度时,追加投资就被动发生,Claude Code 需求曲线正好在这个区间。OpenAI 前两年也走过一模一样的路径。
中文
0
0
1
57
BLANPLAN | 空界計劃
Agent Studio and 24/7 Hermes solve orchestration, but multi-agent production breaks on trust verification between agents. There's no audit trail for whether agent B has drifted from its contract by the time agent A depends on it. A 24/7 runtime without that layer ships as workflows with animated icons on top.
English
0
0
0
197
BLANPLAN | 空界計劃
10 concurrent requests at 18 tok/sec is a serving benchmark. Builder workloads run mostly as single long-context loops, so day-to-day you hit per-request latency before you hit throughput limits. Gemma 26B A4B activates 4B params at inference, the 26B label overpromises on serving cost.
English
0
0
0
775
Google Gemma
Google Gemma@googlegemma·
What does it take to run 3, 5, or even 10 concurrent instances of Gemma 4 locally? We've open-sourced a demo letting you run multiple models side-by-side on your hardware. Gemma 4 26B A4B easily runs 10+ concurrent requests on a MacBook Pro M4 Max at 18 tokens/sec per request.
English
62
251
3.1K
460.2K
BLANPLAN | 空界計劃
@KKaWSB Boris 这套流程里 CLAUDE.md 如果当成静态文档维护会踩坑。模型每几个月跳一次能力,半年前的规范放今天经常反过来压制模型表现。plan-first 和验证循环这两个习惯跨版本还能用,具体配置跟着模型迭代就行。
中文
0
0
0
135
KK.aWSB
KK.aWSB@KKaWSB·
以下是 Claude Code 创始人开发项目之前所做的事情: 1. 先规划,从不急于编码,他与 Claude 来回讨论计划,直到完美为止。尚未编写任何代码 2. 创建一个 CLAUDE.md 文件(一个简单的文档,Claude 每次会话都会阅读它,以便了解你的项目、规则和风格) 3. 给 Claude 提供一种验证自己工作的方式 - 对于后端:编写并运行测试 - 对于 UI:截取屏幕截图,在浏览器中检查 Claude 在没有证明其工作正常之前,绝不应该完成任务 4. 在 settings.json 中设置项目级权限规则,而不是完全跳过权限。与整个团队共享 5. 只有在这之后,才切换到自动接受模式,让 Claude 开始构建 大多数人忽略的部分: 他并不把 Claude 当作一个神奇的黑盒子,第一次就能做对事情 他把它当作一个需要清晰指令、反馈循环和护栏的初级开发者来对待 大规模时,他并行运行多个会话,使用启用了思考模式的 Opus,因为它出错更少,尽管速度较慢 并依赖后台代理推送代码以供后续审查 他的设置出奇地简单。没有疯狂的自定义工具。只是斜杠命令、子代理,以及一个干净的 CLAUDE.md 区别不在于工具,而在于你开始之前如何设置它 。
KK.aWSB@KKaWSB

Claude Code 创始人Boris Cherny带来的这段 30 分钟工作坊讲解,比 100 个 YouTube 视频教程更能让你深入了解“氛围编码”。 赶紧收藏起来,今天就花 30 分钟看看吧!这段视频将彻底改变你使用 Claude 的方式。

中文
5
41
142
23.3K
BLANPLAN | 空界計劃
@0xLogicrw Cube 性能数字漂亮,但 E2B 在 SDK 生态和接口契约上的先发位置不是性能指标能翻掉的。Cube 完全兼容 E2B API 的设计已经默认这个判断。开源的主要影响集中在腾讯云内部元宝和 Serverless 的算力账,对外抢 E2B 份额是另一回事。
中文
0
0
1
281
思维怪怪
思维怪怪@0xLogicrw·
腾讯云开源了 AI Agent 沙盒 Cube Sandbox,Rust 编写,Apache 2.0 协议。 Agent 跑模型生成的代码需要一个隔离环境,避免误删文件或越权访问主机。这类服务的接口事实标准是 E2B,OpenAI Agents SDK、Manus、Perplexity、Hugging Face 都接它。Cube 对 E2B 做完全兼容,原本接 E2B 的 Agent 只要改一个环境变量就能切过来。 腾讯云公布了两组性能数据。单并发冷启动低于 60ms,50 并发时平均 67ms、P95 90ms、P99 137ms。单实例常驻内存低于 5MB(沙盒规格不超过 32GB 时测得),一台 96 核服务器可同时跑 2000 多个沙箱。同场景下 Docker 容器启动约 200ms、共享主机内核;传统虚拟机启动以秒计、单实例内存 20MB 起。 Cube 的做法是给每个 Agent 开一套独立的 Guest OS 内核,走硬件级隔离,同时把启动时间压到百毫秒内。加速靠资源池预置、快照克隆、底层锁优化;压内存靠 Rust 重写、CoW 内存复用、reflink 磁盘共享。项目还附带 CubeVS,用 eBPF 做沙盒之间的网络隔离。 规模化验证给了两个案例。Cube 原本跑在腾讯云 Serverless 体系里,承载过百亿级调用。元宝 AI 编程场景迁到 Cube 后,资源核时消耗降了 95.8%。外部客户里,MiniMax 在 Agentic RL 训练中靠 Cube 做到分钟级调度数十万沙箱实例。下一步规划是把事件级快照回滚也开源出去,提供百毫秒级状态回滚。
Tencent AI@TencentAI_News

🥳We just open-sourced Cube Sandbox! An instant, concurrent, secure and lightweight sandbox runtime for AI Agents. Built with RustVMM and KVM, it achieves the perfect balance of security and performance: → Sub-60ms cold start (2.5-50x faster) → Under 5MB memory overhead per instance (6x less memory) → Dedicated kernel per sandbox (hardware-level isolation) → Thousands of concurrent sandboxes per node → 100% E2B SDK compatible. Swap the endpoint, zero code changes Full-stack capability, one-click deployment. 3 steps to spin up your own private AI sandbox 👇 🔗 github.com/TencentCloud/C…

中文
5
25
190
32.3K
BLANPLAN | 空界計劃
@tychozzz 多模型分工在 model behavior 每轮 update 都漂一次的前提下,routing 策略需要 quarterly 重跑。Gemini 偏短期消息面是因为内置 search 做了 grounding,Claude 接上 search API 和新鲜 scraping 之后行为会接近。单一主力 + tools/sub-agents/memory 这种 context engineering 在实战里通常更稳定。
中文
0
0
0
673
Nico投资有道
Nico投资有道@tychozzz·
自从上个月底我从 Sonnet 切换到 Opus 之后,Token 用量就经常超出限额... Claude 窗口的滚动重置时间是 5 个小时,一般情况下我用不到 4 个小时就达到限额了,剩下的时间只能被迫休息发呆。 为了防止我太闲,我又订阅了 Gemini Pro,用来做一些基础性的调研检索工作。 没想到 Gemini 的效果比我想象中的要好很多。 就比如说投研方面,不设前置 Prompt 的话,Claude 对于任何投资标的,都会侧重基本面财务数据的分析。 但对于一些新公司新板块,营收利润数据可能都是负的,很难做估值。 但 Gemini 对于这类投资标的,更多是从短期消息面和叙事的角度出发,给出的分析更贴合当下市场,效果很不错。 如果你目前暂时无法订阅 Claude 的话,退而求其次,推荐两个备选方案。 文字类型的工作,用 Gemini Pro。代码类型的工作,用 OpenAI 的 Codex。 即使你已经用上了 Claude,我觉得也可以再加上一个 Gemini。 一个用来做检索调研,一个用来做数据验证,可以预防 AI 大模型出现的幻觉问题。
中文
26
4
44
20K
BLANPLAN | 空界計劃
@0xTykoo Hackathon 里让 agent 一整晚跑任务不崩这种架构能力,对应的是 builder 真实工作日常。熬夜 8 小时比拼体力,AI 时代能迁移到实战的不多。健康 hackathon 推行慢主要卡在 sponsor,战斗画面少了 PR 卖点就弱一半。
中文
0
0
0
71
Tykoo
Tykoo@0xTykoo·
我觉得应该办一个全世界最健康的黑客松比赛,谁都他妈不许熬夜,一天不许工作超过8小时,定时离开电脑,让你的agent自己跑一晚上任务跑满且不浪费也是种能力, 每天强迫健身一次,大家一起吃健康餐(有点形式主义了)然后全都带上whoop手环,每天都要记录分数,算入成绩里, 我总感觉黑客松摄影老师们非要找角度抓拍大家四仰八叉、疲惫不堪的样子,其实挺病态的。
中文
70
43
846
79.2K
BLANPLAN | 空界計劃
@ttt36538104 中国 OSS 作者跑滴滴的概率高得反直觉。雾凇拼音在 RIME 生态里装机量不小,国外同量 user base 靠 GitHub Sponsor 一个月拿几千美元不奇怪,国内几乎没 sponsor 习惯也没成熟支付通道。OSS 资金基础设施一直没跑起来,跑滴滴的 OSS 作者也不只雾凇一个。
中文
0
0
2
856
cvengineer
cvengineer@ttt36538104·
看一个雾凇拼音的issue,作者24年的时候在跑滴滴,不知道现在咋样来,这个世道好难。
cvengineer tweet media
中文
145
37
931
192.8K
BLANPLAN | 空界計劃
@noobnooc 这个岗位上限取决于你能在决策链里保留多少自主空间。同事一起参与决策降低了探索风险,但会稀释独立开发的速度优势。所有权归公司意味着具体做出的东西不属于你,沉淀下来的是对哪些需求值得做的直觉。
中文
0
0
0
85
Nooc
Nooc@noobnooc·
🤡 入职第二周就被调岗了,现在是公司的独立开发,自己去找需求,自己实现和尝试。区别就是,会有同事一起参与决策,主要收入来源是工资,做的产品也是属于公司的。 这个班上得越来越有意思了 😋
中文
48
5
156
39.3K
BLANPLAN | 空界計劃
@pengchujin Google 送 Gemini Pro 成本低得多,因为它有 Drive/Photos/YouTube Premium 做底盘,AI 模型用量只占订阅续费动机的一部分。Claude Pro 和 ChatGPT Plus 订阅栈是纯 AI,同样的免费送操作做不了,没有可以摊销的存量产品。同等定价下纯 AI 订阅栈想免费追加高端模型只能压榨毛利,Google 不用。
中文
0
0
0
377
酱紫表
酱紫表@pengchujin·
Google 大善人又发福利了,AI Pro 和 Ultra 订阅用户可以免费在 Google AI Studio 中使用 NanoBanana Pro 和 Gemini Pro 模型了。比如在 AI Studio 中可以生成 4k 照片等等高级功能。
酱紫表 tweet media酱紫表 tweet media酱紫表 tweet media
中文
22
31
328
61.6K
BLANPLAN | 空界計劃
@9hills Copilot Pro+ 移除 4.6 这事,大概率是 Anthropic 把 4.6 推入 EOL 流程后同步到下游的结果。分发方一般不会主动砍还在被上游积极更新的模型,通常要等上游算力和调度资源都集中在 4.7 之后才会发生。7.5x 消耗数字跟 Anthropic serving 4.7 的算力成本反推量级接近,订阅层加价的可能性很低。
中文
0
0
0
175
九原客
九原客@9hills·
晴天霹雳,Github Copilot Pro+ 订阅竟然移除了 Opus 4.6,只有昂贵 7.5x 消耗的 Opus 4.7。
九原客 tweet media九原客 tweet media
中文
20
2
75
80.1K