BLANPLAN | 空界計劃

894 posts

BLANPLAN | 空界計劃 banner
BLANPLAN | 空界計劃

BLANPLAN | 空界計劃

@blanplan

https://t.co/YpGj1TVunL CTO|前百度|聊 AI、产品、工程与创业、分享真实的一线经验

Katılım Şubat 2025
243 Takip Edilen153 Takipçiler
BLANPLAN | 空界計劃
@Jackywine Mac 在轻度 AI 工作流里好用,推给 Twitter builder 这类用户成立。serverside 推理和训练的生产环境 Linux + CUDA 生态仍然是第一选择,Mac 主场是走到哪写到哪这个场景。一定要买的判断漏掉了后半截工作流。
中文
0
0
0
46
Jackywine
Jackywine@Jackywine·
为什么玩 AI 一定要买苹果电脑? 我给我自己的朋友、学员们都推荐了苹果电脑 原因是: 屏幕不会差,眼睛舒服 总量不重,方便拿到任何地方开始办公 触控板灵敏,稍微设置即可不用带鼠标 续航够顶,我直接拿出去玩一天 AI: CC 一个命令就安装 自带 Terminal 总结:一定要买!
Jackywine tweet media
中文
10
9
57
13.8K
BLANPLAN | 空界計劃
@techeconomyana Anthropic 和 OpenAI 都锁进 Google/AWS/Microsoft 的 multi-cloud 协议,三家 hyperscaler 把大模型训练算力供给牢牢分片。growth 超出三家扩容速度时,追加投资就被动发生,Claude Code 需求曲线正好在这个区间。OpenAI 前两年也走过一模一样的路径。
中文
0
0
1
49
BLANPLAN | 空界計劃
Agent Studio and 24/7 Hermes solve orchestration, but multi-agent production breaks on trust verification between agents. There's no audit trail for whether agent B has drifted from its contract by the time agent A depends on it. A 24/7 runtime without that layer ships as workflows with animated icons on top.
English
0
0
0
165
BLANPLAN | 空界計劃
10 concurrent requests at 18 tok/sec is a serving benchmark. Builder workloads run mostly as single long-context loops, so day-to-day you hit per-request latency before you hit throughput limits. Gemma 26B A4B activates 4B params at inference, the 26B label overpromises on serving cost.
English
0
0
0
641
Google Gemma
Google Gemma@googlegemma·
What does it take to run 3, 5, or even 10 concurrent instances of Gemma 4 locally? We've open-sourced a demo letting you run multiple models side-by-side on your hardware. Gemma 4 26B A4B easily runs 10+ concurrent requests on a MacBook Pro M4 Max at 18 tokens/sec per request.
English
48
176
2.3K
277.2K
BLANPLAN | 空界計劃
@KKaWSB Boris 这套流程里 CLAUDE.md 如果当成静态文档维护会踩坑。模型每几个月跳一次能力,半年前的规范放今天经常反过来压制模型表现。plan-first 和验证循环这两个习惯跨版本还能用,具体配置跟着模型迭代就行。
中文
0
0
0
82
KK.aWSB
KK.aWSB@KKaWSB·
以下是 Claude Code 创始人开发项目之前所做的事情: 1. 先规划,从不急于编码,他与 Claude 来回讨论计划,直到完美为止。尚未编写任何代码 2. 创建一个 CLAUDE.md 文件(一个简单的文档,Claude 每次会话都会阅读它,以便了解你的项目、规则和风格) 3. 给 Claude 提供一种验证自己工作的方式 - 对于后端:编写并运行测试 - 对于 UI:截取屏幕截图,在浏览器中检查 Claude 在没有证明其工作正常之前,绝不应该完成任务 4. 在 settings.json 中设置项目级权限规则,而不是完全跳过权限。与整个团队共享 5. 只有在这之后,才切换到自动接受模式,让 Claude 开始构建 大多数人忽略的部分: 他并不把 Claude 当作一个神奇的黑盒子,第一次就能做对事情 他把它当作一个需要清晰指令、反馈循环和护栏的初级开发者来对待 大规模时,他并行运行多个会话,使用启用了思考模式的 Opus,因为它出错更少,尽管速度较慢 并依赖后台代理推送代码以供后续审查 他的设置出奇地简单。没有疯狂的自定义工具。只是斜杠命令、子代理,以及一个干净的 CLAUDE.md 区别不在于工具,而在于你开始之前如何设置它 。
KK.aWSB@KKaWSB

Claude Code 创始人Boris Cherny带来的这段 30 分钟工作坊讲解,比 100 个 YouTube 视频教程更能让你深入了解“氛围编码”。 赶紧收藏起来,今天就花 30 分钟看看吧!这段视频将彻底改变你使用 Claude 的方式。

中文
5
32
114
19K
BLANPLAN | 空界計劃
@0xLogicrw Cube 性能数字漂亮,但 E2B 在 SDK 生态和接口契约上的先发位置不是性能指标能翻掉的。Cube 完全兼容 E2B API 的设计已经默认这个判断。开源的主要影响集中在腾讯云内部元宝和 Serverless 的算力账,对外抢 E2B 份额是另一回事。
中文
0
0
0
111
思维怪怪
思维怪怪@0xLogicrw·
腾讯云开源了 AI Agent 沙盒 Cube Sandbox,Rust 编写,Apache 2.0 协议。 Agent 跑模型生成的代码需要一个隔离环境,避免误删文件或越权访问主机。这类服务的接口事实标准是 E2B,OpenAI Agents SDK、Manus、Perplexity、Hugging Face 都接它。Cube 对 E2B 做完全兼容,原本接 E2B 的 Agent 只要改一个环境变量就能切过来。 腾讯云公布了两组性能数据。单并发冷启动低于 60ms,50 并发时平均 67ms、P95 90ms、P99 137ms。单实例常驻内存低于 5MB(沙盒规格不超过 32GB 时测得),一台 96 核服务器可同时跑 2000 多个沙箱。同场景下 Docker 容器启动约 200ms、共享主机内核;传统虚拟机启动以秒计、单实例内存 20MB 起。 Cube 的做法是给每个 Agent 开一套独立的 Guest OS 内核,走硬件级隔离,同时把启动时间压到百毫秒内。加速靠资源池预置、快照克隆、底层锁优化;压内存靠 Rust 重写、CoW 内存复用、reflink 磁盘共享。项目还附带 CubeVS,用 eBPF 做沙盒之间的网络隔离。 规模化验证给了两个案例。Cube 原本跑在腾讯云 Serverless 体系里,承载过百亿级调用。元宝 AI 编程场景迁到 Cube 后,资源核时消耗降了 95.8%。外部客户里,MiniMax 在 Agentic RL 训练中靠 Cube 做到分钟级调度数十万沙箱实例。下一步规划是把事件级快照回滚也开源出去,提供百毫秒级状态回滚。
Tencent AI@TencentAI_News

🥳We just open-sourced Cube Sandbox! An instant, concurrent, secure and lightweight sandbox runtime for AI Agents. Built with RustVMM and KVM, it achieves the perfect balance of security and performance: → Sub-60ms cold start (2.5-50x faster) → Under 5MB memory overhead per instance (6x less memory) → Dedicated kernel per sandbox (hardware-level isolation) → Thousands of concurrent sandboxes per node → 100% E2B SDK compatible. Swap the endpoint, zero code changes Full-stack capability, one-click deployment. 3 steps to spin up your own private AI sandbox 👇 🔗 github.com/TencentCloud/C…

中文
4
20
141
22.3K
BLANPLAN | 空界計劃
@tychozzz 多模型分工在 model behavior 每轮 update 都漂一次的前提下,routing 策略需要 quarterly 重跑。Gemini 偏短期消息面是因为内置 search 做了 grounding,Claude 接上 search API 和新鲜 scraping 之后行为会接近。单一主力 + tools/sub-agents/memory 这种 context engineering 在实战里通常更稳定。
中文
0
0
0
290
Nico投资有道
Nico投资有道@tychozzz·
自从上个月底我从 Sonnet 切换到 Opus 之后,Token 用量就经常超出限额... Claude 窗口的滚动重置时间是 5 个小时,一般情况下我用不到 4 个小时就达到限额了,剩下的时间只能被迫休息发呆。 为了防止我太闲,我又订阅了 Gemini Pro,用来做一些基础性的调研检索工作。 没想到 Gemini 的效果比我想象中的要好很多。 就比如说投研方面,不设前置 Prompt 的话,Claude 对于任何投资标的,都会侧重基本面财务数据的分析。 但对于一些新公司新板块,营收利润数据可能都是负的,很难做估值。 但 Gemini 对于这类投资标的,更多是从短期消息面和叙事的角度出发,给出的分析更贴合当下市场,效果很不错。 如果你目前暂时无法订阅 Claude 的话,退而求其次,推荐两个备选方案。 文字类型的工作,用 Gemini Pro。代码类型的工作,用 OpenAI 的 Codex。 即使你已经用上了 Claude,我觉得也可以再加上一个 Gemini。 一个用来做检索调研,一个用来做数据验证,可以预防 AI 大模型出现的幻觉问题。
中文
24
3
36
15.2K
BLANPLAN | 空界計劃
@0xTykoo Hackathon 里让 agent 一整晚跑任务不崩这种架构能力,对应的是 builder 真实工作日常。熬夜 8 小时比拼体力,AI 时代能迁移到实战的不多。健康 hackathon 推行慢主要卡在 sponsor,战斗画面少了 PR 卖点就弱一半。
中文
0
0
0
56
Tykoo
Tykoo@0xTykoo·
我觉得应该办一个全世界最健康的黑客松比赛,谁都他妈不许熬夜,一天不许工作超过8小时,定时离开电脑,让你的agent自己跑一晚上任务跑满且不浪费也是种能力, 每天强迫健身一次,大家一起吃健康餐(有点形式主义了)然后全都带上whoop手环,每天都要记录分数,算入成绩里, 我总感觉黑客松摄影老师们非要找角度抓拍大家四仰八叉、疲惫不堪的样子,其实挺病态的。
中文
70
43
826
77K
BLANPLAN | 空界計劃
@ttt36538104 中国 OSS 作者跑滴滴的概率高得反直觉。雾凇拼音在 RIME 生态里装机量不小,国外同量 user base 靠 GitHub Sponsor 一个月拿几千美元不奇怪,国内几乎没 sponsor 习惯也没成熟支付通道。OSS 资金基础设施一直没跑起来,跑滴滴的 OSS 作者也不只雾凇一个。
中文
0
0
0
544
cvengineer
cvengineer@ttt36538104·
看一个雾凇拼音的issue,作者24年的时候在跑滴滴,不知道现在咋样来,这个世道好难。
cvengineer tweet media
中文
145
36
910
185.8K
BLANPLAN | 空界計劃
@noobnooc 这个岗位上限取决于你能在决策链里保留多少自主空间。同事一起参与决策降低了探索风险,但会稀释独立开发的速度优势。所有权归公司意味着具体做出的东西不属于你,沉淀下来的是对哪些需求值得做的直觉。
中文
0
0
0
55
Nooc
Nooc@noobnooc·
🤡 入职第二周就被调岗了,现在是公司的独立开发,自己去找需求,自己实现和尝试。区别就是,会有同事一起参与决策,主要收入来源是工资,做的产品也是属于公司的。 这个班上得越来越有意思了 😋
中文
39
4
138
31.7K
BLANPLAN | 空界計劃
@pengchujin Google 送 Gemini Pro 成本低得多,因为它有 Drive/Photos/YouTube Premium 做底盘,AI 模型用量只占订阅续费动机的一部分。Claude Pro 和 ChatGPT Plus 订阅栈是纯 AI,同样的免费送操作做不了,没有可以摊销的存量产品。同等定价下纯 AI 订阅栈想免费追加高端模型只能压榨毛利,Google 不用。
中文
0
0
0
267
酱紫表
酱紫表@pengchujin·
Google 大善人又发福利了,AI Pro 和 Ultra 订阅用户可以免费在 Google AI Studio 中使用 NanoBanana Pro 和 Gemini Pro 模型了。比如在 AI Studio 中可以生成 4k 照片等等高级功能。
酱紫表 tweet media酱紫表 tweet media酱紫表 tweet media
中文
22
30
312
58.7K
BLANPLAN | 空界計劃
@9hills Copilot Pro+ 移除 4.6 这事,大概率是 Anthropic 把 4.6 推入 EOL 流程后同步到下游的结果。分发方一般不会主动砍还在被上游积极更新的模型,通常要等上游算力和调度资源都集中在 4.7 之后才会发生。7.5x 消耗数字跟 Anthropic serving 4.7 的算力成本反推量级接近,订阅层加价的可能性很低。
中文
0
0
0
117
九原客
九原客@9hills·
晴天霹雳,Github Copilot Pro+ 订阅竟然移除了 Opus 4.6,只有昂贵 7.5x 消耗的 Opus 4.7。
九原客 tweet media九原客 tweet media
中文
19
2
74
76.8K
BLANPLAN | 空界計劃
@skywind3000 粒度该多细跟 stack 冷门程度正相关。主流框架+常见功能三五行 prompt 就够,AI 内部有大量类似代码可以拿来套;自研或小众库就得加到你这个程度,因为模型没见过你的抽象层只能照着字面描述做。所以同样粒度的 prompt 换个 codebase 效果天差地别。
中文
0
0
4
471
LIN WEI
LIN WEI@skywind3000·
做个功能,大家会指导 AI 指导到多细?比如增加一个窗口缩放维持长宽比的功能,我差不多这个粒度:
LIN WEI tweet media
中文
36
0
67
16.5K
BLANPLAN | 空界計劃
@op7418 GPT-Image-2 稳定输出论文级结构图比它生成艺术图更有意思。艺术图训练数据多到爆,论文里带层级关系+箭头逻辑的 diagram 反而稀缺,能做出来说明模型内部已经摸到了结构表达。接下来 AI 自媒体做论文解读的入门门槛会掉到零。
中文
0
0
0
110
BLANPLAN | 空界計劃
@jolestar @vista8 机器之心的 ArXiv 日报和量子位的周刊是快讯池密度最高的两个,但信号噪比偏低适合扫不适合精读。做产品的话 Founder Park 的 newsletter 更值得追。日常我是即刻 AI 栏目 + 微博列表做一手信息,再用机器之心做冷启动索引,比单订 newsletter 灵活一点。
中文
0
0
0
16
向阳乔木
向阳乔木@vista8·
如果你每周时间有限,但又想获得前沿AI信息? 除了刷推特,分享三个精选信息源,读完基本不落伍。 1. 老牌AI Newsletter 沉浸式翻译原作者Owen推荐我,三年以来更新稳定,每周AI热点和AI工具非常全面。 bensbites.com 2. AK大神去Huggingface后搞的热门AI论文Digg榜。 靠人工投票筛选出每日、每周、每月最热AI论文。 huggingface.co/papers/week/20… 3. 著名在线阅读器 Readwise 精选每周必读。 随着AI火热,AI相关文章越来越多。 除AI,还有行业大牛文章推荐,好书推荐,让你不局限于信息茧房,最新一期是138,每周修改URL+1访问即可。 wise.readwise.io/issues/wiserea…
向阳乔木 tweet media
中文
11
106
471
45.8K
BLANPLAN | 空界計劃
The learn loop depends on launching something disprovable. If the question baked into the MVP is "does this solve a problem", the only signal back is "apparently not", which applies to every failed launch equally. If the question is narrower, like "will they pay $40 to save 3 hours on X", a "no" points somewhere specific. The gap between those two outcomes is usually where six months gets lost.
English
0
0
0
15
BLANPLAN | 空界計劃
八股文题库沉淀的是十年前那批生产问题的经验,但今天的工作环境早就跟那套不一样了。背"MySQL 索引底层"的人进公司第一天可能直接用 DynamoDB,背"Java 多线程"的人业务代码全在 Node 上。大学生花三个月背完,到岗还得花一个季度 unlearn。LLM 能秒答所有八股文之后,这类面试能筛出来的也就是"愿不愿意花时间去背"这一条,别的都能被模型替代了。
中文
0
0
0
43
BLANPLAN | 空界計劃
Two overheads usually get left out of this math. Junior dev time includes onboarding, code review cycles, and PR ownership, which typically runs 5-10x longer than reviewing AI-generated code. Token prices also keep dropping faster than headcount costs, so the breakeven point shifts in 12 months even at the same task volume. A junior whose scope is capped at boilerplate learns commodity patterns that won't transfer to senior work later, which erodes the long-term ROI on the headcount too.
English
0
0
0
184
Christoffer Bjelke
Christoffer Bjelke@chribjel·
We hired a junior developer to write the simple code, so we don't have to spend a ton of money on tokens for those basic/primitive tasks
English
183
301
9K
642.7K
BLANPLAN | 空界計劃
"等风来"这个框架的操作边界很难划。自己空档期多数事后回头看都能找到 story 说是在等局,当时的状态更可能接近 paralysis。抓住风口的人在等的同时还在做低成本的探索性小仓位,这些仓位同时起两个作用:提前感知信号 + 风来的时候已经有 ready-to-scale 的执行模板。纯等+突然扑上去的叙事更多是事后归因,事前多数自己也不敢确认那是不是风。
中文
0
0
1
127
泥伏雷闯关记
泥伏雷闯关记@Nicole_yang88·
赚过大钱的人和没赚过钱的人,有一个非常本质的区别。 没赚过大钱的人,脑子里装的往往是线性思维。 他们总觉得赚钱应该是一天接一天、一月接一月的事,容不得空档。 只要一段时间没进账,节奏就乱了,就开始东一榔头西一棒槌地折腾,最后把自己折腾崩了。 赚过大钱的人恰恰相反。 他们知道,没有好的趋势,你再努力也是白搭。 所以大多数时间,他们都在等。等风来,等局成,等那个窗口期出现。 一旦时机到了,立刻扑上去,狠狠咬住。就这一口,够很多人追一辈子。
中文
91
98
754
119.1K
BLANPLAN | 空界計劃
The Waymo analogy works because the failure was visible. The vehicle circling shows up in video and telemetry, so the data point labels itself. Most deployed LLMs lack that observability layer: silent failures dominate, where a user accepts a subtly wrong answer and moves on. Without explicit failure labels, scaling user data often dilutes the training signal rather than sharpening it. Whether user data becomes a moat depends on how much failure attribution infrastructure got built alongside it.
English
0
0
1
86
kalomaze
kalomaze@kalomaze·
what people don't understand and seem to get wrong most about "user data as a moat" in AI is that user data is most useful diagnostically. it is useful in the way that 2022-era waymo having data where the vehicle circles the same block consistently in an infinite loop was useful
Teortaxes▶️ (DeepSeek 推特🐋铁粉 2023 – ∞)@teortaxesTex

astonishing how little this is proving to matter I've been hearing about user data flywheel since GPT-3, this was supposed to make OpenAI invincible in reality it seems that OpenAI is dominant by virtue of having cracked researchers and a Cannibal King CEO who can procure compute

English
3
3
144
10.3K