BLANPLAN | 空界計劃

927 posts

BLANPLAN | 空界計劃 banner
BLANPLAN | 空界計劃

BLANPLAN | 空界計劃

@blanplan

https://t.co/YpGj1TVunL CTO|前百度|聊 AI、产品、工程与创业、分享真实的一线经验

شامل ہوئے Şubat 2025
251 فالونگ164 فالوورز
BLANPLAN | 空界計劃
The AlphaGo 3-3 analogy assumes verification symmetry that's missing here. AlphaGo's 3-3 invasion had MCTS rollouts + win probability as a built-in quality signal, so once humans saw the move they could verify it was correct without understanding why. A single Erdos proof lacks the equivalent signal, whether GPT-5.4's solution is novel or stitched together from existing math literature is not separable without a formal verification pipeline. The AlphaGo-moment framing needs reproducibility of the discovery pattern on 10-20 unsolved problems to hold.
English
0
0
0
1
QC
QC@QiaochuYuan·
people compared GPT-5.4's solution of erdos #1196 to alphago's move 37 but i think a tighter analogy is to alphago's unusual (at the time) preferences for the 3-3 opening and early 3-3 invasion against the 4-4 opening. human go professionals managed to completely miss alpha's continuation of the 3-3 invasion and had dismissed the usual continuation as inefficient - professionals would never have played an early 3-3 invasion before, it would have been dismissed as a beginner move - even though alphago's idea in retrospect was relatively easily understood once introduced. the space of possibility is large and it really is just possible to miss a good idea like this! eurogofed.org/?id=127
QC tweet media
Teortaxes▶️ (DeepSeek 推特🐋铁粉 2023 – ∞)@teortaxesTex

Terence Tao's takeaway is that GPT didn't have any grand idea, but human researcher culture has just… missed the basin where this problem is almost trivial. GPT, being nonhuman, reliably solves it in under an hour. In a way, this is even more humbling. erdosproblems.com/forum/thread/1…

English
9
20
307
31.5K
BLANPLAN | 空界計劃
Every probabilistic ML system at production scale runs through a two-stage pipeline: non-deterministic capability first, deterministic guardrails layered on top. Search went through 20 years of fuzzy matching then another 10 adding ranking determinism and reranker determinism. Recommenders follow the same stack, DL tower + rule-based compliance filters. Guardrail cost is the expected stage 2 once production traffic exposes the long tail of failure modes.
English
0
0
0
1
Arpit Bhayani
Arpit Bhayani@arpit_bhayani·
We spent millions building a wildly capable, human-like non-deterministic AI, and are now spending millions more trying to wrap it in guardrails and making it predictable and deterministic. Absolute cinema.
English
64
67
1.1K
26.6K
BLANPLAN | 空界計劃
封闭场景的传感器数据流 + 自动化标签 + 兽医时间投入做 baseline,这种对比下模型诊断超过兽医属 pipeline 标配,不算传统领域颠覆的证据。兽医的 economic value 多数落在 culling threshold 判定 + treatment cost-benefit trade-off,模型这块没碰。碎片化非结构化数据利用在单一SKU + high-volume + tight operations control 的场景 (猪场/产线QA/仓储) 效果最强,放到医疗诊断/法律文书这种泛传统领域 falloff 明显。
中文
0
0
0
27
中国政经事实ChinaFacts
中国政经事实ChinaFacts@ChinaMacroFacts·
听了牧原的业绩发布会,他们在养猪场地内做的智能化设备采集的数据做了模型,对于猪的疾病和死亡的诊断报告,准确度、信息完整度,已经超过了他们的一线兽医。 最近观察到的一些传统领域,因为碎片化、可改造的非结构化数据很多,利用好,效果是要比新兴领域的颠覆性强很多的。
中文
9
6
97
13.4K
BLANPLAN | 空界計劃
App Store downloads aggregate install curiosity and utility use into one number. ChatGPT's D30 retention sits around 30%, below core utility categories like messaging (70%+) and maps (50%+), so most installs drop off within a month. Revealed preference reads cleaner against weekly active time per user as the metric. Polls measure abstract value on the category level, downloads measure a single action under novelty pressure, the two numbers answer different questions.
English
0
0
0
9
Sky Marchini
Sky Marchini@rhcm123·
“People hate ai” is an expressed preference App Store downloads are a revealed preference
Sky Marchini tweet media
English
50
75
1.3K
73.7K
BLANPLAN | 空界計劃
Operational buildup only holds when per-vertical unit economics make replication uneconomical for new entrants. Stripe's compliance stack and Flexport's freight ops each took 4-7 years and hundreds of millions to build, producing unit cost curves that priced out follow-on entrants. Same heavy-ops scaffolding in a commoditizing adjacent market (last-mile delivery, rideshare ops) gets outspent by better-funded entrants within 2-3 years.
English
0
0
0
4
Paras Chopra
Paras Chopra@paraschopra·
Recently someone asked me if I were to do a software startup today, what would it be about? My immediate reaction was that I probably wouldn’t do a software startup at all. Instead, I’ll perhaps choose an idea with heavy operational buildup that cannot be replicated easily.
English
118
51
1.5K
138K
BLANPLAN | 空界計劃
LeCun 的 JEPA 方向 FAIR 内部推了三年,LeWorldModel 这篇的 setup 是 15M 参数跑 PushT toy task,规模还没迈过 BC policy 那条线。产品端 robotics 现在的主力 baseline(OpenVLA/π0/RT-2/GR-2)全是 imitation learning + VLA 的 supervised stack,没一家用 JEPA 架构。学术和产品分叉拉开一年多,LeWorldModel 离 production robotics 还差两到三个数量级的参数规模。
中文
0
0
1
26
皓樂芒
皓樂芒@howlemont·
作为图灵奖获得者,深度学习神经网络的“教父”级人物,Yann LeCun(扬・立昆),这几年比较憋屈, 因为现在大行其道的生成式AI恰恰不是他主张的AI道路。 Yann LeCun 这些年一直在说,如果你想让 AI 真正理解世界,尤其是去做规划和控制机器人,光靠“生成下一个词”或者“补出下一张图”可能不够。 他提出一种非生成式自监督学习框架JEPA(Joint-Embedding Predictive Architecture,联合嵌入预测架构),核心是在抽象嵌入空间中预测相关部分的表征,而非重建原始数据。 最新的这篇关于LeWorldModel的论文,第一次把这个想法做得比较像样了。 15M 参数,一张 L40S,几个小时训完。 虽然它还没有宣告生成式AI(generative AI)是死路一条,但是至少大家现在知道了,除了把模型越做越大,确实还有另一条路,而且这条路开始能跑了。 你可以把现在的两种训练AI 的思路,想成有两种学生。 第一种学生很会背题。 你给他看很多很多例题,他就记住这类题长什么样,下一步通常写什么。这样的学生很适合做“续写”和“补全”,这很像今天很多生成式 AI 擅长的事。 第二种,学生不急着背每一道题的表面。而是先搞清楚这道题背后的规律:哪些信息重要,哪些只是噪音,下一步为什么会这样变。 LeCun 更看好的就是第二种学生,JEPA 就是这条路线的代表。 JEPA 的想法可以用一句话解释: 别让模型死盯着每个像素的细节,先让它学会抓住世界的“摘要”,再预测这个摘要会怎么变化。 这个“摘要”在论文里叫 latent state。你可以把它理解成“高度压缩的世界笔记”。 比如一个机器人在桌子上推方块。对它来说,真正重要的也许不是每个像素的颜色和纹理, 而是: 方块在哪儿,机械臂在哪儿, 它们朝哪个方向动,下一步可能撞到什么。 如果模型抓住的是这些关键信息,它就更容易做计划。 问题是这条路以前一直容易出事。 最麻烦的问题叫 representation collapse。 听起来吓人,其实简单来说就是:模型偷懒了。 就像一个学生,不管老师问什么题,都写差不多的答案。表面上他每题都“答了”,实际上他根本没分清不同题目的区别。 JEPA 过去常常卡在这里。所以很多老办法都得加很多补丁:额外技巧、额外损失、冻结预训练模型,或者一堆难调的超参数。 现在的LeWorldModel 的进展在于它把训练这件事简化了很多。 按论文的说法,它只用了两条主要训练规则: 一条是预测下一步的 latent state。 一条是约束 latent space,不让它塌成一团。 可以这么理解: 你可以把世界压缩,但不能压缩到什么都分不清。 这就让 JEPA 这条路第一次看起来不像“只能在论文里讲得很漂亮”的东西,终于像一个真的能训练、能测试、能拿来比的系统。 结果表明,在 PushT 任务上,LeWM 的规划成功率是 96%,DINO-WM 是 92%。高了一点点。 但是重要的比较是速度,相比DINO-WM 约 47 秒的规划时间,LeWM仅需约 0.98 秒,。 为什么这很重要? 因为如果一个模型要拿去控制机器人,速度才是生命线。 花47 秒才想清楚下一步,机器人早就该撞墙了。 少于1 秒左右想完一轮,才开始像能真的用起来的系统。 这也是这篇论文最值得看的地方。 它提醒大家世界模型不只是比谁“看起来更聪明”,还要比谁“来得及行动”。 论文里还谈到两个很有意思的现象。 一个是,模型学出来的内部轨迹会慢慢变直。可以把它理解成:现实世界里本来很复杂的变化,到了模型脑子里,变成了更容易预测的路线。 另一个是,如果只是把物体颜色改掉,模型反应没那么大;但如果让物体突然瞬移,打破物理连续性,模型会感到惊讶。 这说明它学到的东西,可能不只是“画面长什么样”,还包括“世界应该怎么连续地运动”。 当然,这篇论文现在的规划步数还不长,只做到 5 步,它还依赖比较密的动作标签。 所以远远没到宣布胜利的时候。 到了更复杂的 3D 场景,尤其是需要很强视觉先验的任务,DINO-WM 还是更强。 因此LeWorldModel 没有证明,从今往后跟生成式AI (generative AI )非此即彼, 如果目标是聊天、写作、图像和视频生成,生成式模型当然还很强。 但如果目标是理解物理世界、快速做计划、把模型接进真实控制系统,让 AI 真正学会“下一步该怎么做”,而不是只会“下一帧该长什么样”,那未来几年最值得看的,也许就是这种更小、更快、更像在学世界规律的模型。 LeCun 这位计算机界诺贝尔奖的获得者(图灵奖),这条“先压缩,再预测”的路线,终于拿出了一份像样的工程答卷。 你大爷还是你大爷 arxiv.org/pdf/2603.19312 LeWorldModel: Stable End-to-End Joint-Embedding Predictive Architecture from Pixels
中文
8
71
407
71K
BLANPLAN | 空界計劃
Tokenizer change pushing 35% more tokens on the same prompt hits hardest in long-context agent workflows where input tokens compound across turns. Pro-plan users see it directly in monthly budget, API users in enterprise contracts get softer impact. Reports of regression tend to come from a specific segment: repeat prompt reuse on long codebases, where Opus 4.6 had caching wins that 4.7's tokenizer invalidated.
English
0
0
0
13
Li Yin
Li Yin@panda_liyin·
We decided not to hype Opus 4.7 in @adalengineer . After testing it, our view was simple: for production use, it feels more like a regression than an upgrade over Opus 4.6. A few reasons: - weaker performance on real-world tasks - less effortful reasoning - a hidden pricing hit from tokenizer changes, with the same prompt counting as up to 35% more tokens So while Opus 4.7 is now available in the latest version of AdaL, we’re not positioning it as a headline improvement. Right now, our team is still sticking with Opus 4.6, Gemini 3.1 Pro, and GPT 5.4. We’d rather be honest than promotional. If you’ve used Opus 4.7, I’d love to hear your review.
English
26
16
243
24.9K
BLANPLAN | 空界計劃
The 1M adds since 3M landed this week, same window Anthropic reported removing Claude Code from 2% of Pro plans. Codex absorbed some of that overflow. Active user counts at this scale also double count across tools since most devs keep 2-3 agents installed, so 4M here includes users who have Claude Code and Cursor open on other tabs.
English
0
0
0
36
Tibo
Tibo@thsottiaux·
Happy Tuesday. Codex has hit 4M active users, adding over 1M users in less than two weeks. To celebrate we will reset the rate limits again in a few hours. Enjoy!
English
351
177
4.7K
394K
BLANPLAN | 空界計劃
Bolting a heuristic auto-tier onto a deterministic allow/deny permission model usually breaks existing muscle memory users built around binary prompts. The auto state is silent by design so users have no signal for when it kicks in, which surfaces as intermittent Accept Edits failures with no clear error trail. Copilot chat and Cody hit the same pattern shipping context-auto selection, took 3-4 releases to stabilize telemetry on which edits got silently accepted.
English
0
0
0
6
Theo - t3.gg
Theo - t3.gg@theo·
@benhylak Permissions has been broken since they added the half baked "auto" mode 🙃
English
5
0
98
17.4K
ben (is hiring engineers)
am i crazy or does accept edits on claude code kind of just not work?
English
20
1
125
41K
BLANPLAN | 空界計劃
AI Agent视频剪辑pipeline从2024年开始开源项目已经几十个。FFmpeg+Gemini这种技术栈组合已经能跑通,frame-level时间对齐(对口型/卡BGM/转场节奏)这块LLM概率采样在时间轴precision上有±0.2-0.5秒偏差。这个drift在short-form短视频上很明显,手动重剪overhead比从头剪省不下多少。Stock footage和meme compilation这种loose-timing场景能scale,精细创作这一层还没被agent解决。
中文
1
0
0
85
koffuxu
koffuxu@koffuxu·
做视频还在手动剪剪剪? 这个开源项目用 AI Agent 把素材直接变成成片 🚀 ✅ 输入创意brief,Gemini 自动分析脚本 ✅ FFmpeg 驱动,多轨道智能剪辑 ✅ 一键导出广告级成片 做短视频、做内容营销的朋友,这个工具值得试试👇 GitHub 已开源,地址见评论区👇 #AI #Agent #视频剪辑 #开源 #AIGC
中文
3
20
131
8.3K
BLANPLAN | 空界計劃
DeepMind用Claude其他部门被逼用Gemini这种内部分层在大厂dogfooding里是常态,Meta早期PyTorch阶段FAIR和rest-of-company也是两套stack。组织问题牵扯vertical integration和researcher autonomy的拉扯,不是Google特有。4万工程师用AI这数据成立是因为指标定义里把Gemini窗口打开算active user,heavy usage层的样本会小两个数量级。
中文
0
0
0
45
華爾街分析猿
華爾街分析猿@WSTAnalystApe·
谷歌內部,還是老問題:官僚體制拖累一切。 上週有前內部人士爆料: Google 內部的 AI 使用率沒有外界想像那麼領先 工程師想用 Claude Coding,卻被要求優先用自家 Gemini 而且不少人覺得:不好用、不穩定 結果 DeepMind CEO 直接怒回「胡說八道」 強調每週 4 萬工程師在用 AI 寫程式 但後續更多內部員工匿名補充: 👉 現實比爆料更慘 原來谷歌內部是「兩個世界」: • DeepMind:日常主力用 Claude • 其他大多數部門:被逼用 Gemini,但很多工程師反映性能倒退、不穩定,有些資深工程師直接不用 內部曾討論 為了「公平」,乾脆把 Claude 全部禁掉 結果:DeepMind 強烈反彈 有人甚至準備離職 原來是 DeepMind 這批「天龍人」可以用 Claude 其他 Google 工程師不行 但 DeepMind CEO 卻出來說: 「很多工程師都在用 AI」 問題不是他說錯數字 而是他看到的「世界」,本來就不一樣 那「4 萬人在用」到底是什麼? 很可能是真的 但本質是:淺層使用(打勾交差) 不是 daily heavy usage 🦧 結論 上層(能用最好工具)覺得一切正常 下層(被限制工具)覺得體驗很差 中間那層官僚:把真相全部過濾掉 這反映了谷歌一直以來的弊病。 不是 AI 技術,而是組織問題。
華爾街分析猿 tweet media
華爾街分析猿@WSTAnalystApe

📊谷歌趨勢數據: 🔴 Gemini 在 Nano Banana 熱潮後迅速退燒 🔵 ChatGPT 熱度則持續攀升創新高

中文
22
23
239
67.9K
BLANPLAN | 空界計劃
中国移动做AI入口,45000次/月token大概等于$1-5的API成本,比发短信推APP便宜5-10倍,路数跟2G时代流量送APP下载一样。能接上OpenAI和MiniMax的API是运营商的partnership门槛,外资模型通过China Mobile云中转的合规通道不好拿。token成本端$1-5/月这档,收益端运营商拿到的是carrier-bundled入口带来的APP装机量和用户绑定数据。
中文
0
0
0
180
李岳
李岳@liyue_ai·
中国移动这也太土豪了吧,直接免费送Token! 之前收到短信还以为又是什么营销捆绑套餐。 今天登录中国移动App发现居然是免费的,而且还不需要后续取消订阅之类的。 目前接入了OpenAI和Minimal 2.5,一个月最多可请求45000次,平均一天得请求1500次才能用完。 壕无人性,我喜欢,已办理😄
李岳 tweet media李岳 tweet media李岳 tweet media
中文
55
27
327
160.5K
BLANPLAN | 空界計劃
@howie_serious 这类A/B图像模型对比样本量太小,单次prompt在图像生成上的output variance本来就大,两组各胜一次在sample size=1下说不清谁更好。要得出robust结论至少需要50-100个prompt跨domain覆盖(文字/人物/抽象/几何)。这种对比帖流量大是因为验证快,并不代表模型能力排序。
中文
0
0
0
191
howie.serious
howie.serious@howie_serious·
【gpt-image 2 vs nano banana pro】实例对比,持续更新 哪个模型的图片质量更高?gpt-image 2 做出的图是否真的是“生产级图片”? 刚好我以前做过相当多的 nano banana pro 图片,图片和 prompt 都还存着。那么,用同样的 prompt 来横向对比,全部基于实际使用,应该会比较有趣。 我会把实测效果按组发出来,持续更新。前面是gpt-image2,后面的是nano banana pro(右下角有 gemini logo) 第 1 组:大脑简史。gpt-image2 的前额叶皮质位置标错; 第 2 组:果汁成分。gpt-image2 的细节更高,品质明显更高。
howie.serious tweet mediahowie.serious tweet mediahowie.serious tweet mediahowie.serious tweet media
中文
5
3
24
6.7K
BLANPLAN | 空界計劃
iMessage/WhatsApp上的bot打开率传统上不到5%,用户主动打开新消息比下载新app的注意力成本还高。Spectrum这种统一API解决的是agent侧的接入工程成本,用户端的engagement门槛没动。能scale起来的会是那些已经绑定现有workflow的agent场景(日程/订单/客服提醒),通用agent硬塞进messaging会卡在engagement这一层。
中文
0
0
0
127
Berryxia.AI
Berryxia.AI@berryxia·
Photon 又放大招了! Spectrum 正式开源:一个统一 API 把 Agent 直接塞进 iMessage、WhatsApp、Telegram、Slack、SMS/RCS! 你的 Agent 终于能出现在用户每天都在用的聊天框里,再也不用逼用户下载新 App 了! 真正的“Agent 到处都是”时代来了🤯
中文
4
7
27
5.9K
BLANPLAN | 空界計劃
@DtDt666 AI接线员这个角色在SaaS时代就叫implementation partner,Oracle和SAP顾问做了三十年。那个阶段一家中小企业实施项目单价能到$50k/年,AI咨询入门门槛低得多,每家企业年付预计落到$10-20k区间,毛利会被从业者数量压到20%以下。跟万亿美金预期有5-10倍差距,个体从业者为主,很难出规模公司。
中文
0
0
0
320
看不懂的SOL
看不懂的SOL@DtDt666·
细思极恐,app已死。 马克·库班最近聊AI财富转移,我反复看了好多遍。 说实话,绝大多数人听完就过了,根本没想到——这里头藏着一个普通人伸手就能够到的机会。 他上来就道出一个现实:全美3300万家企业,既没有AI预算,也请不起专职搞AI的人。 他说的不是硅谷那些明星创业公司,而是街边餐馆、县城工厂、十几个人的贸易公司、开了二十年的家具厂……这些老板知道AI得用,不然迟早被淘汰,可是没人、没钱、没方向,完全不知道从哪开始。 接着他补了一句更狠的:“微软老大都说了,软件已死。以后所有东西,都得按企业的需求量身定做。” 这句话,差不多给过去多年的“一套软件卖全国”模式判了死刑。 以前做软件生意,本质是标准化:做一个通用产品,不管你是做什么的,都得调整自己的工作方式来适应它,然后每年交钱,厂商躺着收租。 但AI把这套逻辑彻底颠倒了。 以后不再是企业将就软件,而是“工具”将就生意。 问题来了:谁去帮这些中小实体企业把AI用起来? 一个三代开厂的老厂长,可能连GPT和文心一言都搞不清;一个县城的批发商,你跟他提AI,他连入口在哪都不知道。 库班最后那个问题,值万亿美金:“谁去帮他们?” 这个问题的分量,比所有大模型研发本身还要重。 现在是什么局面? 全球烧了几千亿美金,全在卷大模型底座;最聪明的那批工程师,在争“AI底层谁说了算”。 让他们卷,让他们烧。他们越卷,基础算力和模型成本就越低,对我们普通人越有利。 因为财富从来不在“造大脑”的地方,而在“大脑”和真实生意接上头的地方。 电的时代,最赚钱的不是发明发电机的人,而是走进工厂、告诉老板“电怎么接、机器怎么改、成本怎么降”的人。 现在多少年轻人觉得,必须进大厂搞模型研发才算赶上AI? 但库班盯住的,是剩下那99%的实体经济,是几千万家等着用AI却无从下手的中小企业。 你不用去卷天价的大模型研发,只要先搞明白大模型的基本操作,再扎进一个行业摸清门道——比如小餐馆怎么用AI做推广、降成本,小工厂怎么优化排产、管库存,小公司怎么提人效、省人力。 走进这些企业的门,搞懂他们真实难处,把AI能力嵌到他们的赚钱环节里,帮他们真正见到利润。 这不是一个岗位,这是一个全新的赚钱赛道,正在浮出水面。 你不用会造AI大脑,你要做的,是成为AI大脑和实体经济之间的“接线员”。 如今,几千万家实体企业站在AI的门外,里头一片黑。 硅谷的大佬们在比赛“造神”,但最终赚到大钱的,一定是那些教会“神”怎么干活、怎么帮普通老板把钱挣到手的人。 你品,兄弟们你细品。
中文
5
62
184
32.8K
阿川 | AI thinking
阿川 | AI thinking@AI_jacksaku·
推上看AI的资讯,一个个都是划时代 线下看AI的落地,没几个真的提效了
中文
30
0
40
9.9K
BLANPLAN | 空界計劃
@yangyi GPT-image-2把fake内容的生产成本降到接近零,但fake内容业务没被消灭。灰产重心落在反检测环节,SMS诈骗和营销号5%通过率就能scale,detection侧现在还停在60-70%准确度。被干死的是长尾低质量造假,高质量定制造假还有市场。
中文
0
0
0
630
Yangyi
Yangyi@yangyi·
这GPT-image-2一发布 很多fake iamge的业务全被干死了 尤其是营销里面最擅长的 fake账单 fake聊天记录 fake好评 还有那些fake学历 fake病例 fake医嘱的 全没了……
中文
11
3
149
35.3K
BLANPLAN | 空界計劃
The $200k pre-seed put Cursor's 2022 valuation at ~$1M. Current $15B mark means ~15000x in three years. Seed-era rounds rarely hit that velocity, AI-era Series A is where you see it now. FTX bankruptcy estate selling the stake at par in 2023 meant Alameda missed the 15000x trajectory by three years.
English
0
0
0
253
Jeff Weinstein 🇺🇸
Jeff Weinstein 🇺🇸@Jeffreyw5000·
Who was the first investor in Cursor? The GOAT investor SBF of course. Alameda Research invested $200k to take half of the company’s $400k pre-seed in 2022. Its stake was sold off in FTX bankruptcy proceedings in 2023 for………$200k.
English
68
64
2.3K
248.3K
BLANPLAN | 空界計劃
@TJ_Research Claude Code $20→$100这个涨价,重度用户单月实际token成本能到$300-500级别,$20席位一直在给长尾补贴。涨价把最重那部分向上推,席位+使用量混合定价Replit和Cursor早切了,Anthropic这步属于补后发动作。
中文
0
0
0
192
投资TALK君
投资TALK君@TJ_Research·
一个月20的PLAN已经无法用CLAUDE CODE了,必须升级到100一个月。说实话,对于拿CLAUDE CODE来赚钱和提升效率的人来说,多付80几乎没有影响。 但这背后代表的是: 1. 过去1年AI种种落地导致需求太大,TOKEN烧太多 2. 个人固定费率(席位制)的收费模式未来可能也会变成席位+使用量 3. 有能力涨价说明有定价权,有人愿意买单说明即使100美金一个月,也无所谓,因为这100美金能带来更大的价值。 现在不拥抱AI,3年后就会是另外一个世界
Amol Avasare@TheAmolAvasare

For clarity, we're running a small test on ~2% of new prosumer signups. Existing Pro and Max subscribers aren't affected.

中文
28
5
104
32K