BLANPLAN | 空界計劃

895 posts

BLANPLAN | 空界計劃 banner
BLANPLAN | 空界計劃

BLANPLAN | 空界計劃

@blanplan

https://t.co/YpGj1TVunL CTO|前百度|聊 AI、产品、工程与创业、分享真实的一线经验

参加日 Şubat 2025
244 フォロー中154 フォロワー
BLANPLAN | 空界計劃 がリツイート
Arena.ai
Arena.ai@arena·
Exciting news - GPT-Image-2 by @OpenAI has claimed the #1 spot across all Image Arena leaderboards! A clean sweep with a record-breaking +242 point lead in Text-to-Image - the largest gap we’ve seen to date. - #1 Text-to-Image (1512), +242 over #2 (Nano-banana-2 with web-search aka gemini-3.1-flash-image) - #1 Single-Image Edit (1513), +125 over #2 (Nano-banana-pro aka gemini-3-pro-image) - #1 Multi-Image Edit (1464), +90 over #2 (Nano-banana-2) No model has dominated Image Arena with margins this wide. Huge congratulations to @OpenAI on this major breakthrough in image generation! More performance breakdowns by category in the thread below.
Arena.ai tweet media
OpenAI@OpenAI

Made with ChatGPT Images 2.0

English
104
342
3.1K
563.4K
BLANPLAN | 空界計劃
@Jackywine Mac 在轻度 AI 工作流里好用,推给 Twitter builder 这类用户成立。serverside 推理和训练的生产环境 Linux + CUDA 生态仍然是第一选择,Mac 主场是走到哪写到哪这个场景。一定要买的判断漏掉了后半截工作流。
中文
0
0
0
72
Jackywine
Jackywine@Jackywine·
为什么玩 AI 一定要买苹果电脑? 我给我自己的朋友、学员们都推荐了苹果电脑 原因是: 屏幕不会差,眼睛舒服 总量不重,方便拿到任何地方开始办公 触控板灵敏,稍微设置即可不用带鼠标 续航够顶,我直接拿出去玩一天 AI: CC 一个命令就安装 自带 Terminal 总结:一定要买!
Jackywine tweet media
中文
10
9
60
14.4K
BLANPLAN | 空界計劃
@techeconomyana Anthropic 和 OpenAI 都锁进 Google/AWS/Microsoft 的 multi-cloud 协议,三家 hyperscaler 把大模型训练算力供给牢牢分片。growth 超出三家扩容速度时,追加投资就被动发生,Claude Code 需求曲线正好在这个区间。OpenAI 前两年也走过一模一样的路径。
中文
0
0
1
55
BLANPLAN | 空界計劃
Agent Studio and 24/7 Hermes solve orchestration, but multi-agent production breaks on trust verification between agents. There's no audit trail for whether agent B has drifted from its contract by the time agent A depends on it. A 24/7 runtime without that layer ships as workflows with animated icons on top.
English
0
0
0
187
BLANPLAN | 空界計劃
10 concurrent requests at 18 tok/sec is a serving benchmark. Builder workloads run mostly as single long-context loops, so day-to-day you hit per-request latency before you hit throughput limits. Gemma 26B A4B activates 4B params at inference, the 26B label overpromises on serving cost.
English
0
0
0
727
Google Gemma
Google Gemma@googlegemma·
What does it take to run 3, 5, or even 10 concurrent instances of Gemma 4 locally? We've open-sourced a demo letting you run multiple models side-by-side on your hardware. Gemma 4 26B A4B easily runs 10+ concurrent requests on a MacBook Pro M4 Max at 18 tokens/sec per request.
English
60
225
2.9K
404.7K
BLANPLAN | 空界計劃
@KKaWSB Boris 这套流程里 CLAUDE.md 如果当成静态文档维护会踩坑。模型每几个月跳一次能力,半年前的规范放今天经常反过来压制模型表现。plan-first 和验证循环这两个习惯跨版本还能用,具体配置跟着模型迭代就行。
中文
0
0
0
102
KK.aWSB
KK.aWSB@KKaWSB·
以下是 Claude Code 创始人开发项目之前所做的事情: 1. 先规划,从不急于编码,他与 Claude 来回讨论计划,直到完美为止。尚未编写任何代码 2. 创建一个 CLAUDE.md 文件(一个简单的文档,Claude 每次会话都会阅读它,以便了解你的项目、规则和风格) 3. 给 Claude 提供一种验证自己工作的方式 - 对于后端:编写并运行测试 - 对于 UI:截取屏幕截图,在浏览器中检查 Claude 在没有证明其工作正常之前,绝不应该完成任务 4. 在 settings.json 中设置项目级权限规则,而不是完全跳过权限。与整个团队共享 5. 只有在这之后,才切换到自动接受模式,让 Claude 开始构建 大多数人忽略的部分: 他并不把 Claude 当作一个神奇的黑盒子,第一次就能做对事情 他把它当作一个需要清晰指令、反馈循环和护栏的初级开发者来对待 大规模时,他并行运行多个会话,使用启用了思考模式的 Opus,因为它出错更少,尽管速度较慢 并依赖后台代理推送代码以供后续审查 他的设置出奇地简单。没有疯狂的自定义工具。只是斜杠命令、子代理,以及一个干净的 CLAUDE.md 区别不在于工具,而在于你开始之前如何设置它 。
KK.aWSB@KKaWSB

Claude Code 创始人Boris Cherny带来的这段 30 分钟工作坊讲解,比 100 个 YouTube 视频教程更能让你深入了解“氛围编码”。 赶紧收藏起来,今天就花 30 分钟看看吧!这段视频将彻底改变你使用 Claude 的方式。

中文
5
34
127
21.1K
BLANPLAN | 空界計劃
@0xLogicrw Cube 性能数字漂亮,但 E2B 在 SDK 生态和接口契约上的先发位置不是性能指标能翻掉的。Cube 完全兼容 E2B API 的设计已经默认这个判断。开源的主要影响集中在腾讯云内部元宝和 Serverless 的算力账,对外抢 E2B 份额是另一回事。
中文
0
0
1
178
思维怪怪
思维怪怪@0xLogicrw·
腾讯云开源了 AI Agent 沙盒 Cube Sandbox,Rust 编写,Apache 2.0 协议。 Agent 跑模型生成的代码需要一个隔离环境,避免误删文件或越权访问主机。这类服务的接口事实标准是 E2B,OpenAI Agents SDK、Manus、Perplexity、Hugging Face 都接它。Cube 对 E2B 做完全兼容,原本接 E2B 的 Agent 只要改一个环境变量就能切过来。 腾讯云公布了两组性能数据。单并发冷启动低于 60ms,50 并发时平均 67ms、P95 90ms、P99 137ms。单实例常驻内存低于 5MB(沙盒规格不超过 32GB 时测得),一台 96 核服务器可同时跑 2000 多个沙箱。同场景下 Docker 容器启动约 200ms、共享主机内核;传统虚拟机启动以秒计、单实例内存 20MB 起。 Cube 的做法是给每个 Agent 开一套独立的 Guest OS 内核,走硬件级隔离,同时把启动时间压到百毫秒内。加速靠资源池预置、快照克隆、底层锁优化;压内存靠 Rust 重写、CoW 内存复用、reflink 磁盘共享。项目还附带 CubeVS,用 eBPF 做沙盒之间的网络隔离。 规模化验证给了两个案例。Cube 原本跑在腾讯云 Serverless 体系里,承载过百亿级调用。元宝 AI 编程场景迁到 Cube 后,资源核时消耗降了 95.8%。外部客户里,MiniMax 在 Agentic RL 训练中靠 Cube 做到分钟级调度数十万沙箱实例。下一步规划是把事件级快照回滚也开源出去,提供百毫秒级状态回滚。
Tencent AI@TencentAI_News

🥳We just open-sourced Cube Sandbox! An instant, concurrent, secure and lightweight sandbox runtime for AI Agents. Built with RustVMM and KVM, it achieves the perfect balance of security and performance: → Sub-60ms cold start (2.5-50x faster) → Under 5MB memory overhead per instance (6x less memory) → Dedicated kernel per sandbox (hardware-level isolation) → Thousands of concurrent sandboxes per node → 100% E2B SDK compatible. Swap the endpoint, zero code changes Full-stack capability, one-click deployment. 3 steps to spin up your own private AI sandbox 👇 🔗 github.com/TencentCloud/C…

中文
4
23
161
26.3K
BLANPLAN | 空界計劃
@tychozzz 多模型分工在 model behavior 每轮 update 都漂一次的前提下,routing 策略需要 quarterly 重跑。Gemini 偏短期消息面是因为内置 search 做了 grounding,Claude 接上 search API 和新鲜 scraping 之后行为会接近。单一主力 + tools/sub-agents/memory 这种 context engineering 在实战里通常更稳定。
中文
0
0
0
517
Nico投资有道
Nico投资有道@tychozzz·
自从上个月底我从 Sonnet 切换到 Opus 之后,Token 用量就经常超出限额... Claude 窗口的滚动重置时间是 5 个小时,一般情况下我用不到 4 个小时就达到限额了,剩下的时间只能被迫休息发呆。 为了防止我太闲,我又订阅了 Gemini Pro,用来做一些基础性的调研检索工作。 没想到 Gemini 的效果比我想象中的要好很多。 就比如说投研方面,不设前置 Prompt 的话,Claude 对于任何投资标的,都会侧重基本面财务数据的分析。 但对于一些新公司新板块,营收利润数据可能都是负的,很难做估值。 但 Gemini 对于这类投资标的,更多是从短期消息面和叙事的角度出发,给出的分析更贴合当下市场,效果很不错。 如果你目前暂时无法订阅 Claude 的话,退而求其次,推荐两个备选方案。 文字类型的工作,用 Gemini Pro。代码类型的工作,用 OpenAI 的 Codex。 即使你已经用上了 Claude,我觉得也可以再加上一个 Gemini。 一个用来做检索调研,一个用来做数据验证,可以预防 AI 大模型出现的幻觉问题。
中文
25
3
42
18.2K
BLANPLAN | 空界計劃
@0xTykoo Hackathon 里让 agent 一整晚跑任务不崩这种架构能力,对应的是 builder 真实工作日常。熬夜 8 小时比拼体力,AI 时代能迁移到实战的不多。健康 hackathon 推行慢主要卡在 sponsor,战斗画面少了 PR 卖点就弱一半。
中文
0
0
0
65
Tykoo
Tykoo@0xTykoo·
我觉得应该办一个全世界最健康的黑客松比赛,谁都他妈不许熬夜,一天不许工作超过8小时,定时离开电脑,让你的agent自己跑一晚上任务跑满且不浪费也是种能力, 每天强迫健身一次,大家一起吃健康餐(有点形式主义了)然后全都带上whoop手环,每天都要记录分数,算入成绩里, 我总感觉黑客松摄影老师们非要找角度抓拍大家四仰八叉、疲惫不堪的样子,其实挺病态的。
中文
70
43
834
78.1K
BLANPLAN | 空界計劃
@ttt36538104 中国 OSS 作者跑滴滴的概率高得反直觉。雾凇拼音在 RIME 生态里装机量不小,国外同量 user base 靠 GitHub Sponsor 一个月拿几千美元不奇怪,国内几乎没 sponsor 习惯也没成熟支付通道。OSS 资金基础设施一直没跑起来,跑滴滴的 OSS 作者也不只雾凇一个。
中文
0
0
1
724
cvengineer
cvengineer@ttt36538104·
看一个雾凇拼音的issue,作者24年的时候在跑滴滴,不知道现在咋样来,这个世道好难。
cvengineer tweet media
中文
145
37
919
189.6K
BLANPLAN | 空界計劃
@noobnooc 这个岗位上限取决于你能在决策链里保留多少自主空间。同事一起参与决策降低了探索风险,但会稀释独立开发的速度优势。所有权归公司意味着具体做出的东西不属于你,沉淀下来的是对哪些需求值得做的直觉。
中文
0
0
0
75
Nooc
Nooc@noobnooc·
🤡 入职第二周就被调岗了,现在是公司的独立开发,自己去找需求,自己实现和尝试。区别就是,会有同事一起参与决策,主要收入来源是工资,做的产品也是属于公司的。 这个班上得越来越有意思了 😋
中文
44
4
146
35.5K
BLANPLAN | 空界計劃
@pengchujin Google 送 Gemini Pro 成本低得多,因为它有 Drive/Photos/YouTube Premium 做底盘,AI 模型用量只占订阅续费动机的一部分。Claude Pro 和 ChatGPT Plus 订阅栈是纯 AI,同样的免费送操作做不了,没有可以摊销的存量产品。同等定价下纯 AI 订阅栈想免费追加高端模型只能压榨毛利,Google 不用。
中文
0
0
0
329
酱紫表
酱紫表@pengchujin·
Google 大善人又发福利了,AI Pro 和 Ultra 订阅用户可以免费在 Google AI Studio 中使用 NanoBanana Pro 和 Gemini Pro 模型了。比如在 AI Studio 中可以生成 4k 照片等等高级功能。
酱紫表 tweet media酱紫表 tweet media酱紫表 tweet media
中文
22
31
323
60.3K
BLANPLAN | 空界計劃
@9hills Copilot Pro+ 移除 4.6 这事,大概率是 Anthropic 把 4.6 推入 EOL 流程后同步到下游的结果。分发方一般不会主动砍还在被上游积极更新的模型,通常要等上游算力和调度资源都集中在 4.7 之后才会发生。7.5x 消耗数字跟 Anthropic serving 4.7 的算力成本反推量级接近,订阅层加价的可能性很低。
中文
0
0
0
149
九原客
九原客@9hills·
晴天霹雳,Github Copilot Pro+ 订阅竟然移除了 Opus 4.6,只有昂贵 7.5x 消耗的 Opus 4.7。
九原客 tweet media九原客 tweet media
中文
19
2
74
78.9K
BLANPLAN | 空界計劃
@skywind3000 粒度该多细跟 stack 冷门程度正相关。主流框架+常见功能三五行 prompt 就够,AI 内部有大量类似代码可以拿来套;自研或小众库就得加到你这个程度,因为模型没见过你的抽象层只能照着字面描述做。所以同样粒度的 prompt 换个 codebase 效果天差地别。
中文
0
0
5
639
LIN WEI
LIN WEI@skywind3000·
做个功能,大家会指导 AI 指导到多细?比如增加一个窗口缩放维持长宽比的功能,我差不多这个粒度:
LIN WEI tweet media
中文
37
0
83
20K
BLANPLAN | 空界計劃
@op7418 GPT-Image-2 稳定输出论文级结构图比它生成艺术图更有意思。艺术图训练数据多到爆,论文里带层级关系+箭头逻辑的 diagram 反而稀缺,能做出来说明模型内部已经摸到了结构表达。接下来 AI 自媒体做论文解读的入门门槛会掉到零。
中文
0
0
0
118
BLANPLAN | 空界計劃
@jolestar @vista8 机器之心的 ArXiv 日报和量子位的周刊是快讯池密度最高的两个,但信号噪比偏低适合扫不适合精读。做产品的话 Founder Park 的 newsletter 更值得追。日常我是即刻 AI 栏目 + 微博列表做一手信息,再用机器之心做冷启动索引,比单订 newsletter 灵活一点。
中文
0
0
1
27
向阳乔木
向阳乔木@vista8·
如果你每周时间有限,但又想获得前沿AI信息? 除了刷推特,分享三个精选信息源,读完基本不落伍。 1. 老牌AI Newsletter 沉浸式翻译原作者Owen推荐我,三年以来更新稳定,每周AI热点和AI工具非常全面。 bensbites.com 2. AK大神去Huggingface后搞的热门AI论文Digg榜。 靠人工投票筛选出每日、每周、每月最热AI论文。 huggingface.co/papers/week/20… 3. 著名在线阅读器 Readwise 精选每周必读。 随着AI火热,AI相关文章越来越多。 除AI,还有行业大牛文章推荐,好书推荐,让你不局限于信息茧房,最新一期是138,每周修改URL+1访问即可。 wise.readwise.io/issues/wiserea…
向阳乔木 tweet media
中文
11
113
532
51.1K
BLANPLAN | 空界計劃
The learn loop depends on launching something disprovable. If the question baked into the MVP is "does this solve a problem", the only signal back is "apparently not", which applies to every failed launch equally. If the question is narrower, like "will they pay $40 to save 3 hours on X", a "no" points somewhere specific. The gap between those two outcomes is usually where six months gets lost.
English
0
0
0
17
BLANPLAN | 空界計劃
八股文题库沉淀的是十年前那批生产问题的经验,但今天的工作环境早就跟那套不一样了。背"MySQL 索引底层"的人进公司第一天可能直接用 DynamoDB,背"Java 多线程"的人业务代码全在 Node 上。大学生花三个月背完,到岗还得花一个季度 unlearn。LLM 能秒答所有八股文之后,这类面试能筛出来的也就是"愿不愿意花时间去背"这一条,别的都能被模型替代了。
中文
0
0
0
45
BLANPLAN | 空界計劃
Two overheads usually get left out of this math. Junior dev time includes onboarding, code review cycles, and PR ownership, which typically runs 5-10x longer than reviewing AI-generated code. Token prices also keep dropping faster than headcount costs, so the breakeven point shifts in 12 months even at the same task volume. A junior whose scope is capped at boilerplate learns commodity patterns that won't transfer to senior work later, which erodes the long-term ROI on the headcount too.
English
0
0
0
190
Christoffer Bjelke
Christoffer Bjelke@chribjel·
We hired a junior developer to write the simple code, so we don't have to spend a ton of money on tokens for those basic/primitive tasks
English
188
316
9.6K
684.8K
BLANPLAN | 空界計劃
"等风来"这个框架的操作边界很难划。自己空档期多数事后回头看都能找到 story 说是在等局,当时的状态更可能接近 paralysis。抓住风口的人在等的同时还在做低成本的探索性小仓位,这些仓位同时起两个作用:提前感知信号 + 风来的时候已经有 ready-to-scale 的执行模板。纯等+突然扑上去的叙事更多是事后归因,事前多数自己也不敢确认那是不是风。
中文
0
0
1
136
泥伏雷闯关记
泥伏雷闯关记@Nicole_yang88·
赚过大钱的人和没赚过钱的人,有一个非常本质的区别。 没赚过大钱的人,脑子里装的往往是线性思维。 他们总觉得赚钱应该是一天接一天、一月接一月的事,容不得空档。 只要一段时间没进账,节奏就乱了,就开始东一榔头西一棒槌地折腾,最后把自己折腾崩了。 赚过大钱的人恰恰相反。 他们知道,没有好的趋势,你再努力也是白搭。 所以大多数时间,他们都在等。等风来,等局成,等那个窗口期出现。 一旦时机到了,立刻扑上去,狠狠咬住。就这一口,够很多人追一辈子。
中文
91
98
756
119.8K