Fisher

1.6K posts

Fisher banner
Fisher

Fisher

@hackfisher

To be is to inter-be.

Singapore Se unió Mart 2012
2.1K Siguiendo353 Seguidores
Fisher retuiteado
Shay Boloor
Shay Boloor@StockSavvyShay·
$DUOL Q1 EARNINGS • Revenue $292M vs Est. $289M • EPS $0.89 vs Est. $0.75 • EBITDA $83M vs Est. $74M • Paid Subscribers: 12.5M vs Est. $12.7M • DAUs: 56.5M vs Est. $55.7M FY26 Guidance • Bookings $1.28B vs Est. $1.29B • EBITDA $310M vs Est. $302M
Shay Boloor tweet media
English
72
72
590
300.7K
Fisher retuiteado
0xGene
0xGene@icuke·
AAVE:Arbitrum Bro, 黑客那边被你们冻住的 7100 万美元,可以先还回来吗?用户这边等着资产恢复。 Arbitrum:别急,DAO 正在投票,流程走完应该很快。DeFi United 嘛,懂的,Bro。 AAVE:等你好消息! (美国律师登场) DPRK 债权人律师:兄弟们,我知道你们很急,但是先别急,这笔钱现在不能动。 AAVE:??? DPRK 债权人律师:我们手上有以前针对 DPRK 的判决。这个黑客是 Lazarus,Lazarus 就是 DPRK,所以这笔钱属于 DPRK 的财产利益。既然是 DPRK 的,我们就可以执行索赔(要优先给我们)。 AAVE:先等一下。你们怎么证明这是 DPRK 黑客? DPRK 债权人律师:推特上大家都这么说。 AAVE:...还有呢? DPRK 债权人律师:还有新闻报道呀。 AAVE:就算真是 Lazarus,黑客偷来的钱,拿在手里几天,就变成他的财产了吗? DPRK 债权人律师:至少足够我们主张执行。 AAVE:那我换个例子。有人砸了 Tiffany 橱窗,抢了一颗钻石,店里的保安把钻石截下来。由于小偷以前欠别人钱,现在小偷的债主跑来说:这钻石现在归我? DPRK 债权人律师:如果能证明小偷对它有财产利益,是的。 AAVE:但那是被偷的钻石。 DPRK 债权人律师:Bro,和我说没用,去法院讲道理吧。 Arbitrum:那我现在到底能不能把钱转给资产恢复钱包? DPRK 债权人律师:不能。限制处分通知已经送达了。没有法院命令,别动。 AAVE:但这笔钱对应的是无辜用户的损失。 DPRK 债权人律师:Bro,和我说没用,去法院讲道理吧。 AAVE:如果这个逻辑成立,以后拦截黑客资金,还要先和黑客的债主打官司? DPRK 债权人律师:欢迎感受阿美利坚司法的光辉。 AAVE:那以后谁还敢第一时间冻结黑客资金?冻住之后,反而被拖入一场甚至几场成本不菲的资产归属权诉讼战。 DPRK 债权人:Bro,和我说没用,去法院讲道理吧。 AAVE:如果被制裁国家的黑客偷来的钱可以被拿去偿还旧判决,那等于每次追回黑客盗窃的资金,都可能变成“黑客受害人 vs 黑客国家债权人”的争夺。 DPRK 债权人:所以,兄弟你们别动钱哦。 AAVE:法官阁下,要么尽快解除这个限制,要么让对方拿出3个亿保证金!用户现在就在等资产恢复,不是一年以后! 法官:兄弟们,我知道你们很急,但是先别急,我们得照章办事... (改写自 @the_smart_ape 帖子)
0xGene@icuke

关于 Arbitrum / KelpDAO 冻结资产被 DPRK 判决债权人盯上这件事。 太长不看: 1. DPRK judgment creditors 已经启动纽约判决执行程序,并取得法院批准替代送达。当前效果只是先锁住资产,法院没有判定这笔 ETH 最终归谁。 2. Arbitrum / Security Council 现在不能安全地绕开法院,短期内要把 ETH 转给 Kelp recovery 的可能性非常低。 3. Kelp-side 的强论点:如果这批 ETH 是被盗资产的可追踪 proceeds,DPRK / Lazarus 作为 thief 通常没有 good title。 4. Kelp-side 的最大风险:tracing、ownership、standing、recovery mechanism 证明是一个技术活。 所以...用户要做好“持久战”的心理准备,哪怕 Defiunited 再募捐到额外 30,000 ETH 替代 Arbitrum 这笔冻结,直接对用户进行赔付可能会让这个问题在未来愈发的复杂。 如果还有没走的用户建议早点走uniswap撤离吧: 卖出 aArbWETH 直接换 WETH,磨损只有0.05%-0.2%,大额可能要twap慢慢换,小额随时都能走。 Pool: aArbWETH <-> WETH app.uniswap.org/explore/pools/… --- 以下是正文 --- 纽约州南区法院的法庭判令的原始文件: …ge-just-flyingfish-108.mypinata.cloud/ipfs/bafybeie6… 当前情况在大部分web3用户眼里就是“DPRK 受害人律师要抢 Kelp/AAVE用户的钱”;不过从法律程序看,情况更复杂。 目前发生的链条大致是: 4月19日,Kelp / rsETH 相关资产遭遇攻击,攻击者被认为与 DPRK / Lazarus 有关。大约 36,167 rsETH 被跨链到 Arbitrum 上,并存入 AAVE 借出 ETH 和 wstETH,最终全部兑换为 30,766 ETH。 4 月 21 日,Arbitrum Security Council 紧急冻结了攻击者地址的 ETH。 4 月 30 日,DPRK 受害人一方的律师启动纽约判决执行程序,向 Arbitrum DAO 发出 **CPLR § 5222 restraining notice**,并请求法院批准替代送达。 5 月 1 日,S.D.N.Y. 法院批准了替代送达。也就是说,可以通过 Arbitrum governance forum、Security Council 成员、相关实体和律师等渠道,把 restraining notice 和 writs of execution 送达到 Arbitrum DAO 相关方。 5 月 2 日左右,相关 notice 被贴到 Arbitrum governance forum。 所以现在的状态是:这批资产已经进入一个正式的 judgment enforcement 程序。它不只是普通律师函,也不是 DAO 社区可以无视的治理争议。当然这一步也没有等于法院已经判定 DPRK 受害人可以拿走钱。 当前状况是:在法院进一步处理前,Arbitrum DAO / Security Council 不应擅自转移、释放或处分这批被主张为 DPRK / Lazarus 相关的资产。 这一点对 Arbitrum 很关键。 如果 Security Council 或 DAO 在 restraining notice 没有被解除、修改,或者没有拿到 court order 的情况下直接把资产转给 Kelp recovery wallet,法律风险会非常大。即使 Kelp-side 最后在实体权利上有理,Arbitrum 也可能因为违反 restraining notice 被追究责任。 所以最可能的路径是走完法院程序,再动资产: Arbitrum / Kelp-side 进入法院程序,提出 defenses,主张 adverse claim,要求法院确认 DPRK 对这批资产没有可执行的 property interest,或者请求法院批准一个 court-supervised recovery plan。 接下来时间上可能会有几个节点: 第一,短期内可能会出现 emergency briefing 或 hearing。 如果 Arbitrum、Kelp 或其他受影响方主动出庭,法院可能会先处理一个很实际的问题:资产能不能继续冻结、能不能进入 escrow、能不能允许某种受控 recovery plan。 第二,如果双方只争“先不要动资产”,这个问题可能比较快进入法院视野。 但如果争的是最终 ownership / priority,也就是谁有权拿走这批 ETH,时间可能会明显拉长。 第三,CPLR § 5222 对第三方 garnishee 的 restraining notice 通常有一个很重要的时间维度:对第三方来说,restraining effect 一般可以持续到送达后一年,或者 judgment 被 satisfied / vacated,以较早者为准。 所以如果法院没有更早修改或解除 restraint,理论上这类冻结可能拖到接近一年。当然,实际中如果各方快速出庭、证据清楚,也可能更早解决。 这对 Kelp / AAVE 用户的影响很直接: 1. 短期内,Arbitrum 冻结的这部分 ETH 很难被用于kelp recovery处置。 资产技术上被冻结,法律上也被 restraining notice 锁住。即使 DAO 社区支持归还,也需要解决法院程序问题。 2. 中期看,用户能否尽快恢复损失,有不少争议问题需要明确: 🤔 frozen ETH 和 Kelp exploit 的链上路径是否足够清楚; 🤔这批 ETH 是原始被盗资产、直接 proceeds,还是经过 swap / bridge / conversion 后的混合资产; 🤔谁有资格代表受害人出庭主张权利; 🤔recovery wallet 或 claims process 是否能被法院接受; 🤔Arbitrum DAO / Security Council 在法律上到底是 custodian、controller,还是只是有技术 freeze / unfreeze 能力的治理主体。 当然,个人觉得Kelp-side 的实体论点其实还可以:如果这批 frozen assets 能被证明是 Kelp / rsETH exploit 中被盗资产的可追踪 proceeds,那么 DPRK / Lazarus 只是 thief。一般法律原则下,thief does not get good title。小偷偷来的东西,通常不会因为经过钱包、桥或 DEX,就变成可以拿来偿还小偷旧债的合法财产。 这也是 DPRK judgment creditors 最需要跨过的门槛:他们只能执行 DPRK 的 property interest,不能执行本来属于第三方受害人的财产。 但 Kelp-side 最大的挑战也在这里。 法院不会只听一句“这是 Kelp 用户的钱”。法院会看 tracing、ownership、standing 和 recovery mechanism。 如果链上路径不够干净,或者资产经过多次转换后已经很难证明是特定受害人的 property / proceeds,DPRK judgment creditors 的策略就会变强。他们会说,这些资产现在已经是 DPRK / Lazarus 控制下的 proceeds,因此可以用于执行旧判决。(当然我是觉得链路还算干净,唯一复杂的就是通过AAVE抵押套了一层借贷关系) 以上均非法律意见,只是基于公开材料的程序性分析。

中文
6
4
37
31.7K
Fisher retuiteado
OpenClaw🦞
OpenClaw🦞@openclaw·
ClawSweeper 0.2.0 🦞 The OpenClaw maintenance bot now handles the loop: issue → @clawsweeper fix/build → guarded PR → review → repair → re-review → automerge Still conservative. Much less manual. clawsweeper.bot
English
55
95
1.2K
384.7K
Fisher retuiteado
小盖
小盖@xiaogaifun·
强烈推荐大家看看DeepMind CEO Demis的最新判断。 真的,Google DeepMind 的 CEO Demis Hassabis 每一期访谈我觉得值得都花时间看看。这哥们讲东西很实在,而且通俗易懂。 早上边跑步边听完了他和 YC CEO Garry Tan 的最新一期播客。 刚刚把笔记写完,也给大家分享下。 多说一句,好多人问我这种笔记是不是 AI 写的。我说下自己的流程。 我会先完整听完播客,然后用语音输入法把感触尽量充分地讲出来,再让 AI 帮着整理初稿,最后自己逐字修改优化。 如果全部交给 AI 做总结,那等于把思考和理解的能力让渡给了 AI,对自己理解这件事其实没有任何价值。 OK,咱们进正题。 1 Demis 的态度非常明确,现在的大模型范式(大规模预训练 + RLHF + CoT)一定会是 AGI 最终架构的一部分,他不认为这会是条死路。 但要实现 AGI,还有几个关键问题要解决。这几个问题包括:持续学习、长程推理和记忆系统。 先从最容易看到的现象讲起,Context Window。 现在大模型处理长信息,最常用的招就是把 Context Window 一直撑大。一开始 8k,后来 32k,再后来 100 万 Token。听起来很厉害,但本质上是暴力堆砌。 Context Window 其实就相当于人脑里的 Working Memory,工作记忆。人的工作记忆能同时装多少东西?心理学里有个经典数字,7 个左右。背电话号码能记住 7 位上下,再多就溢出了。 大模型呢?已经做到 100 万 Token。 按理说,模型的工作记忆比人大几十万倍,应该比人聪明几十万倍才对。但显然不是。 问题也恰恰就出现在这。把所有东西都塞进 Context Window 里,里面包含了不重要的东西、错的东西、过时的东西。看起来信息很多,其实是一团乱麻。 那人为什么 7 个数字的工作记忆就够用? 因为人脑背后还有另一套机制在工作。我们记得几年前的事,记得童年的事,记得几小时前发生的事。这些都不塞在工作记忆里,而是另一套系统。 具体来说这套系统是海马体,大脑里负责把新知识整合进已有知识库的那个部分。 研究发现,人睡觉的时候,特别是 REM 睡眠阶段,大脑会重放白天重要的片段,让大脑从中学习。新东西在睡觉的过程里,温柔地融进了旧的知识体系。 这个把新东西融进旧知识库的过程,就是持续学习。 模型现在没有这套机制。每一次对话结束,刚学到的东西就会忘记。下次重新打开,还是上次那个模型,没长进。 2 再聊聊长程推理的问题。英文表达是 Long-term Reasoning。我翻译为了长程。 长程推理这个词太抽象了。Demis 讲了一个特别具体的故事,听完会立刻明白他说的是什么。 他说自己喜欢跟 Gemini 下国际象棋。下棋的过程里能看到模型的 thinking trace,也就是它在那里到底想了什么。 然后他发现一件怪事。 模型考虑一步棋的时候,思考链里清清楚楚写着,这步是个昏招。但接下来,它没找到更好的走法,于是又走回这步昏招。 明明知道是错的,还是把错的那一步走出去了。 这个细节比任何 benchmark 数据都说明问题。因为它暴露的是模型缺少对自己思考过程的某种内省能力。 正常人下棋,意识到一步是昏招之后,脑子里会有一个反应,停一下,再想想。停一下、再想想这个能力,模型现在没有。它能在每一步局部判断对错,但没法基于整盘棋的局势去调整整体策略。 这就是长程推理还没搞定的样子。模型可以一步一步往前走,每一步看起来都合理,但走到后面整盘棋的方向其实是错的。它没有那种退回到当前思考的上一层、重新审视一下的能力。 说到底,模型缺的是一种内省。 3 学习、长程推理、记忆,这是 Demis 在播客里点出来的三个 AGI 鸿沟。 除此之外,他还反复提到了创造力。 2016 年 AlphaGo 跟李世石下棋,第二局走出了著名的 Move 37。那一步棋走出来的瞬间,全世界的围棋高手都看呆了。 所有人类几千年下围棋积累的经验都告诉它不该下那里,但 AlphaGo 下了。下完之后大家发现,是一步神来之笔。 很多人觉得,这就是 AI 的创造力来了。 但 Demis 说,对他自己来说,Move 37 只是起点。他真正想看到的是另一件事。AI 能不能发明围棋这件事本身。 这两件事的区别非常关键。 Move 37 是在围棋这个现成的规则里,找到了一步人类没想到的招。但围棋的规则、棋盘的形状、黑白子的对弈方式,是人类发明出来的。AI 在已有的框架里非常厉害,但能不能自己造一个框架,是另外一回事。 Demis 给了一个具体的设想。 如果给 AI 一个高层次的描述。造一个游戏,五分钟能学会规则,要好几辈子才能精通,棋局有审美,一下午能下完一局。AI 能不能根据这个描述,自己倒推出围棋? 目前做不到。 为了把这件事讲得更清楚,Demis 还提了一个测试,他自己叫爱因斯坦测试。 用 1901 年人类已有的全部知识训练一个模型,看它能不能在 1905 年那个时间点,自己推出狭义相对论。 爱因斯坦在 1905 年那一年里,连写了几篇改变物理学的论文,后来叫爱因斯坦奇迹年。那些工作不是从已有的物理学论文里通过拼接得到的,是基于已有材料做了一次全新的概念跳跃。 爱因斯坦测试想问的就是这件事。AI 能不能做这种跳跃。 目前的大模型主要在做两件事,pattern matching 和 extrapolation。一个是从大量数据里找规律,一个是把规律往外延伸一点。但发现新东西需要的是类比推理的能力。从一个领域里抽出深层结构,搬到另一个全新的领域去用。 这个能力,模型现在还没有。也可能是有,但用法不对所以激发不出来。 4 除此之外,Demis 还分享了一个让我特别出乎意料的判断,他说未来 6 到 12 个月,真正的价值不在更大的模型,在更小的模型。 这一部分内容我反复听了好几次,确实突破我的已有认知。 不知道大家的想法,反正我自己,这一年来并没有怎么关注小模型的进展。毕竟行业的焦点就是把模型做大嘛。 那小模型的价值到底在哪? 最直接的是成本。同样一个任务,小模型的推理价格可能只是前沿模型的十分之一甚至更少。 但 Demis 说,比成本更重要的其实是速度。 这里有一个前提得先说清楚。Demis 不是在说速度可以替代智能。 他的原话是,当小模型的能力已经达到前沿模型的 90% 到 95%,也就是已经相当不错的时候,剩下那 5% 到 10% 的能力差距,比不上速度带来的好处。 比如现在工程师用 AI 写代码,已经形成了一种新的工作节奏。一个想法冒出来,几秒之内就能看到结果,不行就改,再不行再改。 这个一改再改的循环跑得越快,做出来的东西就越好。如果每次调用都要等十秒,整个工作流就被打断了。 更关键的是,快到一定程度,工程师在这种节奏里能进入心流。一个想法、一次尝试、一个反馈、再来一个想法,思维不被打断。 这件事写过代码的人都懂,进入心流和频繁掉出心流,产出的差距是数量级的。 Agent 也是同样的逻辑。一个 Agent 跑完一个任务可能要调几十次模型,每次慢一秒,整个任务就慢一分钟。慢到一定程度,Agent 就从一个能用的东西变成鸡肋。 小模型不是大模型的廉价替代品。有些事只有小模型能做。 比如手机、眼镜、家用机器人,需要的就是一个能在本地跑起来的模型。本地跑除了反应快,还有一个特别重要的好处,隐私。 家里机器人看到的视频、听到的对话,全部在设备本地处理,根本不上云。这件事对很多用户来说不是加分项,是底线。 成本、速度、边缘部署,这是小模型的价值。 5 讲完小模型的价值,接下来一个更关键的问题是,能力被压到这么小的参数里,会不会有上限? Demis 的判断是,目前没看到信息密度有任何理论上限。小模型的智能天花板还远没看到。 支撑这个判断的,是 DeepMind 在蒸馏这件事上的积累。蒸馏简单说就是先训练一个超大的模型,然后用这个超大模型去教一个小模型。教完之后,小模型用极少的参数,能复现原来 95% 以上的能力。 为什么 DeepMind 这么重视蒸馏?因为要把 AI 能力放进谷歌的头部产品中,前提是低延迟、低成本。前沿模型再强,每次推理花几秒钟、花几毛钱...这条路,恐怕很难走得通。 一个前沿模型发布之后,6 到 12 个月内,他们就能把这个模型的能力蒸馏到边缘设备能跑的小模型上去。这个时间表比很多人想的要快。 在很多场景中,小模型和大模型会相互配合。 举个例子,一个端到端的智能助手,绝大部分日常任务在本地的小模型上跑。智能眼镜看到的画面、家里机器人听到的对话、手机里的私人助理,模型直接在设备里读懂,不需要往云端传一遍。 只有遇到特别复杂、本地搞不定的问题,才向云端的前沿模型发起请求。 也就是说小模型在边缘做主力,前沿模型在云端做后援。 不过,这个构想对小模型的要求也比较高,它不能只会处理文字,还得能理解物理世界。 这就是为什么 Gemini 从一开始就坚持多模态,不光处理文字,也处理图像、视频、声音。 一开始这么做比只做文本要难得多,但眼镜也好,机器人也好,需要的是一个能看懂周围世界的模型,不是一个只会聊天的模型。 讲到这里,小模型这条路的轮廓就完全清楚了。它独立成立,不是前沿模型的廉价替代品,而是另一条同样重要的路。 嗯,很有启发。
中文
46
236
1.2K
177.8K
Fisher retuiteado
Nous Research
Nous Research@NousResearch·
Hermes Agent now has multi-agent via the Kanban, new in v0.12.0. Agents claim tasks from a board, work in parallel, and hand off when blocked. You watch progress and unblock from one easy view instead of juggling terminals. We asked it to plan and make this video about itself:
English
266
490
5.9K
1.4M
Fisher retuiteado
📦Acbox
📦Acbox@AcboxLiu·
最近 OpenClaw 和 Hermes 让大家关注到一件事:给 AI 一个真实的环境(文件系统、工具、记忆),比单纯的对话框有意思得多。我们也是这个思路,不过我们更关注另一个场景:群聊。 传统 chatbot 在群聊里只有被 @ 才会处理消息,其他时候它是不存在的。这在 1v1 对话里没问题,但群聊本来就不是一问一答的——你不会每说一句话都 @ 一个人。 所以我们给Memoh引入了discuss模式。Discuss 模式下 bot 收到群里的每一条消息,但 LLM 直接输出的文字是内心独白——没人看得到。要说话得调 send 工具,不调就是沉默。该不该开口,LLM 自己推理决定。 所以 bot 在群聊里终于是个正常的参与者了:有人问它问题会回答,有话题它能聊就插一句,没它的事就安静待着。而不是一个 @了才弹出来的工具。 技术细节写了篇 blog(见评论),讲了怎么用确定性上下文管线(DCP)把群聊消息流转成结构化上下文,以及怎么通过 inner monologue + tool call 的方式让 bot 自主决定说不说话。
中文
19
9
175
41.5K
Fisher retuiteado
✧ 𝕀𝔸𝕄𝔸𝕀 ✧
涨见识了,原来不同公司的期权隐含波动率曲面,从3D视角看上去,会是这个样子,Codex上的GPT5.5太强了,这就是博士级金融工程师的水平吗?
中文
238
187
1.7K
257.7K
Fisher retuiteado
凡人小北
凡人小北@frxiaobei·
刚好今天下午跟团队开会,聊到了 Symphony。 过去这段时间团队手搓了一套系统,想解决一个很现实的问题: 别再让产品和技术被各自的工具链锁住了。 现阶段虽然 AI Coding 大家虽然玩的很溜,但认知上还未对齐,还在遵守老的规范,产品做需求,做完需求评审,评审完以后技术守着 codex、claude code 或者 cursor 这种本地工具,开发协作还是靠人肉对齐,整个过程其实很割裂,效率也不稳定。 这个平台做的事情很简单粗暴,要把这些能力收敛到同一套平台里,让 coding 从人驱动工具切换变成 Agent 任务驱动。 今天刚好讨论的一个关键点就是任务要用 Symphony 串起来。 什么意思? 就是以后团队里任何一个人,只要不颠覆大的设计目标,都可以直接提需求 → AI 自动拆解 → 自动构建 → 自动交付初版。 所有人要做的事情只剩两件,提需求、验证、兜底。 你可能会说,OpenAI、Authoropic 这些公司已经这么干了,但其实对于我们来说,现阶段可能刚刚好。 现状是开发到提测这个流程是没什么问题了,接下来我们打算把产品也收到这里边来,测试也尝试对接进来,看看到底能走到一哪一步。
向阳乔木@vista8

x.com/i/article/2049…

中文
12
31
144
40.9K
Fisher retuiteado
Fisher retuiteado
Phoenix Yin
Phoenix Yin@Phoenixyin13·
🚨 震撼!2026年4月Science重磅:斯坦福团队(中国博士后一作)发现蛋白质能直接指导合成DNA。 近70年的中心法则被彻底改写了! 以前的情况是,DNA→RNA→蛋白质(信息单向) 现在,斯坦福团队发现,蛋白质也能反向→DNA!完全不需要DNA/RNA模板,就靠蛋白质自己的氨基酸结构当模具,精准造出AC重复DNA序列。 这是克里克提出中心法则以来最大改写!蛋白质第一次被证实能直接携带并传递遗传信息。 细菌用它对抗病毒,我们人类可能即将迎来基因工程新纪元。 最令我感到喜悦的两件事: 1.论文里提到用 AlphaFold3 辅助建模Drt3b的结构,这是生物学研究的常规操作,但我仍然感受到AI与生物的有机结合。 2. 蛋白质直接当模板造DNA的机制,打开了蛋白质指导遗传信息的新玩法。如果未来能工程化改造Drt3b,让它按照AI设计的蛋白结构,精准合成任意DNA序列,那基因合成、基因编辑、合成生物学可能会迎来大跃进,不再完全依赖传统模板依赖的聚合酶,这将是伟大的未来。 总之,2026年的4月,人类创造了一场生命科学基础理论的震撼。请大家记住此刻,记住这神奇而美妙的四月。 #中心法则 #蛋白质DNA #Science #生物学突破 #斯坦福
Phoenix Yin tweet mediaPhoenix Yin tweet media
中文
242
220
1K
252.7K
Fisher retuiteado
范凯说 AI | Kai on AI
范凯说 AI | Kai on AI@fankaishuoai·
我看完3.5小时张小珺对罗福莉的专访,她这个深度访谈,涉及面非常宽,包括: 1. 模型未来的发展趋势 2. 当前模型的训练方法 3. 不同模型技术路线的发展 4. 核心模型研发团队的管理 罗福莉代表了中国 AI 模型领域最顶尖的那一小撮人。她的观点和视野,基本上处于全球 AI 行业金字塔尖的水平。 我总结了几个我认为最值得分享给大家的核心点: 1. AI 模型进入第二阶段(2026 年起) 从 2022 年底 ChatGPT 发布到 2025 年,是 AI 前沿模型的第一个时代,主线是提升模型与人的对话能力。但从 2026 年(或 2025 年底)开始,模型真正拼的是 Agent(智能体)的能力。Agent 模型的训练方式与 Chatbot 完全不同: (a) 算力配比变化:传统训练中预训练与后训练的算力配比一般是 5:1,现在已经达到了 1:1,后训练阶段需要的算力显著增加。 (b) 上下文窗口需求:传统对话不需要太大的窗口(256K 已很大),但运行 Agent 需要极大的窗口。罗福莉认为 100 万甚至 1000 万 token 的窗口很快会成为主流。 (c) 数据质量:Agent 对于模型至关重要,因为通过 Agent 才能获取高质量、长上下文、高度结构化的训练数据。相比之下,传统的互联网文本或标注数据更适合问答模型,而非 Agent 模型。 2. 全新的起跑线 在第二阶段,所有模型公司其实回到了同一起跑线上。现在的核心竞争力在于谁能拿到更多高质量的 Agent 长上下文数据。在这个领域,Anthropic 的 Claude 凭借长期的深耕已经遥遥领先,成为了行业标杆;OpenAI 正在奋起直追,而其他模型仍处于追赶状态。 3. 趋势判断与启示 (a) 认知迭代:我们不能再用 2023-2025 年的传统眼光来看待 AI。在 2026-2028 这三年,模型和智能体的发展速度将远超过去,呈现极速加速的态势,很有可能在三年内达到 AGI 状态。 (b) 相互促进的飞轮:更好的智能体产生更多高质量数据喂给模型,而更强大的模型又提升了智能体的效果。如果模型公司不为顶尖智能体做优化,很快就会被淘汰。 4. 核心建议:押宝智能体 在未来三年的窗口期,我们应该把赌注压在“智能体”这个方向上。最前沿的研发人员已经揭示了模型必须为 Agent 优化的趋势。由于研发团队用上了 Claude Code 等编程智能体,研发周期已从半年一年缩短到一两个月。 当这个飞轮转起来后,模型的进化速度将超乎想象。我们一定要在智能体领域深耕。 1. 罗福莉的背景 她曾是 DeepSeek V2 和 V3 最核心的研究人员。当时的 DeepSeek 团队规模并不大,大约只有两三百人,组织架构非常扁平,而她在其中处于非常核心的位置。 2. 加入小米后的成就 去年罗福莉离开 DeepSeek 加入小米,担任小米 MiLM 大模型的负责人。小米的模型团队同样规模精简,大约只有 100 人,且保持了极高的扁平度,所有人都直接向她汇报。 3. 团队战斗力 这是一个非常年轻的团队,在不到半年的时间里,就已经做出了行业内评测指标非常靠前的模型。
中文
12
28
142
24.2K
Fisher retuiteado
郭宇 guoyu.eth
郭宇 guoyu.eth@turingou·
今天非常高兴和大家正式介绍并开源我的第 14 款 vibe 产品 wanman.ai 它的理念很简单,让世界上所有人,都能在 AI agents 团队的帮助下,从零创办或接管任何组织,围绕用户的核心意图,持续自动化地运营一人公司。 为了实践这种理念,wanman 必须设计的尽可能简单,不需部署,不用买 mac mini,不用操作复杂的权限,只要打开网站,输入想法,即可运行。 wanman 有两种工作模式,第一种是从故事目标自治运行,它会分析目标,规划任务并邀请 AI 员工,自动开会并对齐目标,每个虚拟工作日结束后,wanman 会主动进行创意发散,从而保持任务持续运行。 第二种是 wanman 接管(takeover)目前支持任何 GitHub 仓库,它会分析代码仓库,围绕目标进行自动优化和测试,在持续运行的基础上,不断提交代码到远端仓库。 无论哪种工作模式,wanman 都会运行到目标达成。它和许多流行的 harness 产品相似,均支持:agents 消息通信、自进化 skill、沙箱隔离环境运行、多模型架构等功能,和其他产品不同的是,wanman 的设计哲学是,让人类用户退居二线,仅作 AI 团队的观察者。它的核心架构和组件已在 GitHub 开源:github.com/chekusu/wanman 从现在开始,任何用户都可以登录 wanman.ai 免费体验,目前支持授权 codex 使用,未来会逐步支持多模型授权与自动调度。 这是我今年以来开发最久,也是最重要的产品之一,为了开发 wanman,我做了 sandbank cloud,chatben,tuwa 等基础设施,这些产品的 vibe 经验,最后都成了 wanman 的一部分代码。 wanman 的命名来自于日语的 one man(ワンマン)的罗马音,在日本的乡间,经常能看到ワンマン電車在田野中悠然自得地穿行,我相信在不久的将来,也会有许多人使用 wanman 创建自己的ワンマン会社。 祝大家都能借助 wanman.ai 告别创业的烦恼,享受创造的乐趣!
郭宇 guoyu.eth tweet media郭宇 guoyu.eth tweet media郭宇 guoyu.eth tweet media郭宇 guoyu.eth tweet media
中文
148
194
1.5K
169.2K
Fisher retuiteado
Bill The Investor
Bill The Investor@billtheinvestor·
大规模 Agent 部署的成本结构要变了。 内存从 200MB+ 砍到 30MB,加载从 500ms 降到 85ms。 这种 Rust 驱动的 Obscura 浏览器,直接把爬虫和自动化测试的算力边际成本打了下来。 你觉得这种极致的轻量化会取代 Playwright 吗?
Bill The Investor tweet media
中文
8
28
174
27.5K
Fisher retuiteado
鸭哥
鸭哥@grapeot·
旧金山飞西雅图的航班上,我用Apple Watch随手录了两个半小时。听回来全是发动机轰鸣和空调噪音,Whisper base什么都识别不出来。死马当活马扔给Whisper Large V3 Turbo,八分钟后奇迹出现——系统完整输出了前排乘客关于孩子教育和职场转型的对话、全程机组广播、空乘点饮料的互动,甚至捕捉到一个新上任空乘第一天工作的细节。
中文
28
84
784
151.7K
Fisher retuiteado
YJ
YJ@0xPianoHands·
很多用户在Aave出事后选择把资产转入Spark,看了一下Spark的运维机制,确实如果相同的黑客攻击事件是选择把rsETH存到Spark上,那么损失会减少数十倍。 核心是Aave允许任何人一次性存入任意数量的抵押品,攻击者凭空铸造了11.65万枚rsETH,在一笔tx里就全部存进Aave抵押,借走2.36亿WETH。 而Spark的Cap Automator设计了两个参数: ttl(冷却期):两次上限调整之间必须间隔12小时 gap(单次额度):每次上限只能领先实际使用量gap这么多 假设Spark上rsETH设的是ttl=12h/gap=5000枚,那么攻击者在一个ttl周期里最多只能存5000枚。11.65万→5000,损失规模压缩23倍。有相当长的时间发现黑客攻击,从而触发协议治理介入。 我们永远无法去保证任何的链上协议不会被盗,但能通过运维做到的就是在发生黑天鹅的时候,通过限速去减少单次损失的规模。 事实上Spark的风险管理更加精密,在年初就停止rsETH新供应,给出的理由是rsETH在Spark上的利用率过低,几乎所有供应来自单一钱包,风险调整后回报不达标。
中文
5
6
60
12.2K
Fisher retuiteado
Balder
Balder@Balder13946731·
库克的接班人 John Ternus 正式走到了聚光灯下。(斗宗强者是没有Linkedin的) 他是 Mac 转型自研芯片的关键领导者。正是他推动了硬件性能的跨越,让 MacBook 彻底摆脱了“发热与降频”。 他是iPad 之父: 参与了每一代 iPad 的开发。更硬核的是,他曾说服软件主管 Craig Federighi 打造 iPadOS,因为他坚信硬件的潜力不该被手机系统束缚。 •硬件细节控: 从 AirPods 的微型精密组装,到 Apple Pencil 的磁吸充电方案,这些改变用户习惯的“小细节”都出自他的工程团队。 特努斯时代的苹果愿景: 1.AI 的“具身化”: 相比于云端对话,特努斯更看重“端侧 AI”。未来的 iPhone 和 Mac 将成为真正的 AI 算力中心,隐私保护将硬刻在晶体管里。 2.机器人与家居: 作为一个机械工程师,他极有可能加速苹果智能机器人(如带机械臂的家用中心)的落地,将苹果的生态从指尖延伸到物理空间。 3.空间计算的终局: Vision Pro 的减重与日常化是他的头号工程挑战。他的目标是让“空间计算”像戴一副黑框眼镜一样简单。 作为一个懂物理结构、爱钻研细节的工程师 CEO,未来的苹果将更专注于产品。
Balder tweet media
中文
75
53
798
226.9K