RockCat

3.6K posts

RockCat

RockCat

@HunterRockCat

从墙隙中窥探世界的赵国牛马

娑婆世界 Katılım Mart 2010
2K Takip Edilen178 Takipçiler
Morris
Morris@Morris_LT·
为什么中国不愿意和与更强大、更规范的体系合作的国家合作,例如美国等发达国家?而是更愿意和俄罗斯、伊朗、朝鲜等,这种封闭式集权国家合作呢?原因超级简单,因人的快乐有两个,第一个征服自己的快乐,第二个享受人上人的快乐。和发达国家合作,意味着需要成长自己,虽然可能带来经济发展,虽然民众生活水平会提高,但也会限制权力的任性和特权空间。但是和集权国家合作,好处是互不干涉内部权力结构,即使代价是发展受限甚至倒退,却能够保留统治者“人上人”的特权和随意支配的权力。因此,这种选择本质上反映的不是国家整体利益最大化,而是制度结构和统治者上层对权力与特权的偏好,以及由此带来的发展取舍。所以,你可以看到,一个稳定的集权体系国家是由上层人的坏和底层人的蠢,以及被边缘化的希望变化的反对者组成。
中文
394
122
950
109.6K
RockCat
RockCat@HunterRockCat·
AI harnesser
Norsk
0
0
0
7
魔都老猿
魔都老猿@AriXZone·
腾讯和京东的财报也出来了。 腾讯一年收入7500多亿,净利润2200多亿,利润率接近30%。员工只有11万多,人均一年创造利润200万左右。 这种赚钱能力,说白了就是印钱。 也只有互联网这种行业,才能干出这种事情。放到现实世界里,几乎没有对手。 再看京东。 一年收入1.3万亿,比腾讯还高,但净利润只有200亿左右,利润率连2%都不到。员工却有90万,相当于腾讯的八倍,人均利润也就几万块。 这才是绝大多数企业的真实样子。 腾讯干的是纯互联网生意,游戏、广告、社交,本质都是数字产品。一套东西做出来,可以无限复制,卖100份和卖1亿份,成本差不了多少,后面的基本都是利润。 京东干的是另一种活,仓储、物流、配送、供应链,全是实打实的现实世界。每多一单,就多一份成本,多用人、多用车、多用仓库,这种东西不可能有高利润。 腾讯这种公司,说白了,是建立在“人可以不干正事”的时间之上的。 你不玩游戏、不刷视频、不聊天,腾讯也不会影响你活着。 但你一旦有空、有情绪、有社交需求,它就出现了,然后把这一切变成钱。 它赚的不是刚需的钱,是人性的钱。 而京东完全相反。 它赚的不是你想不想花的钱,而是你必须要花的钱。 吃的、用的、生活里的每一件东西,都要经过类似它这样的系统。
中文
333
250
2.2K
881K
RockCat
RockCat@HunterRockCat·
@Barret_China 还有能正常浏览的source code仓库吗?昨天忘记fork了
中文
1
0
1
1.6K
Barret李靖
Barret李靖@Barret_China·
看了一晚上 Claude Code 泄露的代码,结合常见的记忆管理框架,把记忆模块做了一些分析。 Tulving 老爷子在 1972 年提出了记忆系统的框架设计,至今仍在广泛使用,他把记忆分为三类:1)情境记忆(episodic memory),我干了啥,用来记录过去;2)语义记忆(semantic memory),我知道啥,用来提炼规律;3)以及程序化记忆(procedural memory),我会做啥,用来决定行动。 这些记忆之间是存在相关性的,例如我经历的事情(情景记忆)会慢慢遗忘细节,储存在脑海中的是提炼后的规律和知识,也就是压缩成了语义记忆;而我知道的东西又会逐渐内化为行动的指引,变成一种“知道怎么做”的能力,这就是程序化记忆;程序化记忆反过来又会指导行动,从而产生新的经历。三者构成了一个不断循环的过程:经历 → 知识 → 技能 → 新的经历。 Claude Code Memory 在这几块都有对应的实践,例如每轮次的对话它会以 jsonl 格式做储存,这是情境记忆;同时在对话过程中还会有 SessionMemory 做实时蒸馏,相当于一边发生一边做初步整理。 每轮次结束后,它会 fork 出一个子 Agent(extractMemories)去提取值得持久化的内容,写入带 YAML 头的 MD 文件,这一层对应语义记忆,把零散对话压缩成可复用的知识。更有意思的是它还有一个 autoDream 机制,会在后台做整合和修剪,把碎片化的内容重新组织、合并、更新,这一步很像记忆的巩固过程。 很多框架都没有实现程序化记忆,而 Claude Code 做了。它有一个 feedback 的记忆类型,不仅记录了不要做什么(用户的纠正),还会记录哪些做法是对的(用户的确认),这些都是经验化的技能记录。多数系统只考虑负反馈,Claude Code 兼顾了正向确认,让 Agent 不至于越学越保守,这一点非常关键。 相比 LangMem/Mem0/Zep/EverMemOS/MemOS 这些框架,Claude Code 肯定弱的像个菜鸡😄。它有很多能力是明显不足的,例如:不支持语义化召回(用 LLM 扫 metadata 代替向量检索,上限 200 个文件)、遗忘策略比较粗(24 小时 or 5 轮对话触发整合)、无关联网络(记忆是孤立文件),等等。 真要像 EverMemOS/MemOS 那样追求全量记忆,工程和架构复杂度会直线上升,就拿 EverMemOS 来说,光基础设施就包含了 MongoDB/Elasticsearch/Milvus/Redis,更别说其他的附带依赖了。这类框架更适合做个人长期记忆管理。 另外也去对比了下 OpenClaw,它的记忆实现也非常有意思。它不追求全量记忆,而是优先解决“记忆什么时候该被用”。它把记忆拆成了三层:全局层、工作区层、任务层,逐层收敛,只在必要的时候才把上下文拉进来。 在 OpenClaw 眼里,记忆不是资产,正确使用记忆的能力才是。所以它的设计更侧重于重建临时的记忆网络。 放在这个视角下再去看 Claude Code,就会发现它其实选了一条更偏执行的路径。 对它来说,看清问题全貌也没那么重要。它解决问题的方式,更像人类工程师 debug,一边看、一边改、一边跑、一边修正,在行动中逐步逼近答案。 在这个过程中,Memory 的作用就是一个“防遗忘机制”,保证关键上下文不会在多轮试错中丢失。
中文
16
150
699
67.7K
RockCat
RockCat@HunterRockCat·
@luoling8192 就像拆腻子企业,实施SAP没有不成功的,因为不成功就说明“你不行”,所以,SAP顾问,在拆腻子就自成体系了
中文
0
0
0
117
RainbowBird | 洛灵
RainbowBird | 洛灵@luoling8192·
我发现吹龙虾的人从来不说他们遇到的问题,只讲好的部分。 可能十次里面有一次是非常完美的,那他们就把这一次的东西截图发出来,然后吸引大家一起去用。 大家用了以后发现没有自己想的那么好,但是又不想被别人觉得自己不行,所以就一起去吹。 直接变成了皇帝的新衣。
中文
23
2
98
10.4K
RockCat
RockCat@HunterRockCat·
@wquguru 都被openclaw盖住了
中文
0
0
1
666
WquGuru🦀
WquGuru🦀@wquguru·
现在似乎没有人提起poe、chatwise、cherry studio等等了,也少有人提及n8n、dify,模型能力升级过程中已经淹没了一大堆产品,细数一下: Poe:曾经最方便的多模型聊天聚合平台 Chatwise:高性能桌面AI聊天客户端,支持多LLM、本地化隐私 Cherry Studio:跨平台AI生产力工作室 n8n:开源工作流自动化神器 Dify:AI应用低代码构建平台,快速做RAG和Agent的利器 还有Flowise、Langflow、AutoGPT、BabyAGI这些早期可视化/自主代理工具,都在o1/Claude 3.5/GPT-4o等模型狂飙中逐渐淡出视线……你们还记得/还在用哪些“老”AI产品吗?欢迎评论区怀旧
中文
84
45
452
120.2K
RockCat
RockCat@HunterRockCat·
@geekbb 都在吹牛蹭热度套壳呢
中文
0
0
0
320
Geek
Geek@geekbb·
我用了FastClaw、Nanobot,都不太好用,目前还没有找到 OpenClaw 的平替
中文
33
0
17
23.2K
RockCat
RockCat@HunterRockCat·
@linwanwan823 跑了就跑了,还回来干嘛?想吃吸吸屁一口屁吗?结果呢,屁没吃到,居然相信吸吸屁?
中文
0
0
0
1.2K
林晚晚的猫
林晚晚的猫@linwanwan823·
Manus 两个创始人被限制出境,还有一件事没人提:中国运行了30年的红筹政策,也受Manus影响一起修改了。 Manus 的事大家都知道了。 创始人被召至发改委开会,会后不能出境,Meta 20亿美元的收购被监管叫停,公司正在找律师救场。 晚晚最近刚和朋友聊到,红筹这边的政策更迭,也因Manus而起。 简单来讲,红筹是什么。公司壳注册在境外,比如开曼、BVI等,业务和资产在境内,去港股或美股上市融资。 这个套壳结构跑了三十年,基本是中国科技公司出海的标准姿势。 据说是春节前口头沟通相关套壳企业,最近两周直接在备案系统里通知。 收到通知的已超过10家,港股美股都有,消费、医疗、科技、制造,没有行业例外。 只有少数被认定为国家战略科技的能保留。 大部分除非先把架构拆了、迁回境内,才有机会拿到备案。 晚晚我感觉,中概美股 IPO 又要开启困难模式的阶段。 中国的资产、中国的用户,税收和控制权留在境外的时代,可能结束了。
中文
240
300
2.2K
1M
RockCat
RockCat@HunterRockCat·
越来越“懒”了,从每个操作都要approve,仔细看看修改了什么,到逐渐习惯接受accept all edit... 明显感觉对代码的掌控力在持续下降...
中文
0
0
0
24
RockCat
RockCat@HunterRockCat·
npx -y @tencent-weixin/openclaw-weixin-cli@latest install 鹅厂的来了,好像功能很少
中文
0
0
0
27
RockCat
RockCat@HunterRockCat·
@skywind3000 估计还是跟使用方式,以及账号来源有关系
中文
0
0
0
880
RockCat
RockCat@HunterRockCat·
倚天剑和屠龙刀都出现了,能真正驾驭超级武器的人有多少呢?内力不足的也就摆个花架子忽悠人而已
中文
0
0
0
36
RockCat
RockCat@HunterRockCat·
@dotey 渐渐的有了熟悉的味道…呵呵,开始融入了…
中文
0
0
0
277
宝玉
宝玉@dotey·
传说中的DeepSeek天才少女、雷军千万年薪挖角的罗福莉也开始发推了。 帖子里最生动的段落是关于她第一次使用复杂 Agent 脚手架的经历。她用的词是:orchestrated Context,编排过的上下文,我理解就是现在比较火的 Harness Engineering。 她说第一天就被震惊了,然后试图说服团队去用,没成功,于是下了一个硬性命令: > MiMo 团队里,明天对话数不到 100 条的人,可以辞职了。 这个管理风格相当激进,但有效。一旦团队的想象力被 Agent 系统的能力点燃,这种想象力就直接转化成了研发速度。 一方面确实霸气,一方面也让我有点意外,原以为大模型团队应该是更积极拥抱这种从传统 Chat 模型到 Agent 模型范式变化的。 其他都是“干货” 1. 提前押注的架构优势 1T 底座模型几个月前就开始训练了,当时的目标是长上下文推理效率。采用了 Hybrid Attention 机制(混合注意力,简单说就是不让所有 token 都互相关注,而是让一部分用全局注意力、一部分用局部注意力,大幅降低计算成本),支持百万 token 上下文窗口,加上 MTP 推理层(Multi-Token Prediction,一次预测多个 token 而不是一个一个蹦,推理延迟和成本都大幅下降)。 这些架构决策在当时并不时髦,但它们恰好成了 Agent 时代的结构性优势。 2. 为什么 MiMo 团队能这么快 罗福莉在做 DeepSeek R1 的时候亲眼见证过的真实总结: — 基座与基础设施研究周期很长。你需要在它产出回报的一年前就有战略定力。 — 后训练的敏捷性是另一种能力:靠产品直觉驱动评估,压缩迭代周期,及早捕捉范式转换。 — 还有那些不变的东西:好奇心、敏锐的技术直觉、果断的执行力、全力以赴。 以及一样很容易被低估的东西:对你正在为之构建的世界,发自内心的热爱。 3. 模型会开源的,等模型稳定到值得开源的时候。
Fuli Luo@_LuoFuli

MiMo-V2-Pro & Omni & TTS is out. Our first full-stack model family built truly for the Agent era. I call this a quiet ambush — not because we planned it, but because the shift from Chat to Agent paradigm happened so fast, even we barely believed it. Somewhere in between was a process that was thrilling, painful, and fascinating all at once. The 1T base model started training months ago. The original goal was long-context reasoning efficiency. Hybrid Attention carries real innovation, without overreaching — and it turns out to be exactly the right foundation for the Agent era. 1M context window. MTP inference for ultra-low latency and cost. These architectural decisions weren't trendy. They were a structural advantage we built before we needed it. What changed everything was experiencing a complex agentic scaffold — what I'd call orchestrated Context — for the first time. I was shocked on day one. I tried to convince the team to use it. That didn't work. So I gave a hard mandate: anyone on MiMo Team with fewer than 100 conversations tomorrow can quit. It worked. Once the team's imagination was ignited by what agentic systems could do, that imagination converted directly into research velocity. People ask why we move so fast. I saw it firsthand building DeepSeek R1. My honest summary: — Backbone and Infra research has long cycles. You need strategic conviction a year before it pays off. — Posttrain agility is a different muscle: product intuition driving evaluation, iteration cycles compressed, paradigm shifts caught early. — And the constant: curiosity, sharp technical instinct, decisive execution, full commitment — and something that's easy to underestimate: a genuine love for the world you're building for. We will open-source — when the models are stable enough to deserve it. From Beijing, very late, not quite awake.

中文
69
171
1.2K
639.9K
RockCat
RockCat@HunterRockCat·
@Jiaxi_Cui AI对新人的冲击力远大于有经验的人
中文
0
0
1
640
Panda
Panda@Jiaxi_Cui·
我是已经不想招实习生了,这个时代自驱力强的人太难找了,基本都会有自己的事业 而没有自驱力的人,你得手把手教他如何用 AI 完成日常事务,这样的话为什么不用 OpenClaw 呢,把每月 5k-9k 人民币招实习生的钱拿过来买小龙虾用的 token 划算的多
中文
34
9
339
52.3K
RockCat
RockCat@HunterRockCat·
@oran_ge 阿里出品,都是废品,之前感觉Qwen是唯一靠谱的,现在看。。。嗯。。。
中文
1
0
1
491
RockCat retweetledi
迈克 Mike Chong
迈克 Mike Chong@mike_chong_zh·
"零人公司"最大的謊言:AI自動化有個悖論沒人說——你想自動化一件事,你必須先比AI做得更好。因為你定義不了"好",就造不出靠譜的流程。AI解決的是執行,不是判斷。先成為專家,再談自動化。順序反了,全是高效產出的垃圾。
中文
11
11
71
9K
RockCat
RockCat@HunterRockCat·
@skywind3000 所以,我一直在VSCode中使用GitHub copilot,熟悉的IDE,熟悉的debug,实时review生成的代码,确定keep还是undo,代码写的少了,思考多了,思考业务逻辑,用户交互体验,系统架构,顺带从AI生成的代码中学习一些自己没有用过的函数,算法和实现方式...
中文
0
0
5
932
LIN WEI
LIN WEI@skywind3000·
节选:而像 Claude Code 这样的工具,却走向了相反的方向:开发者只需要输入 prompt,剩下的代码由模型生成,甚至不需要理解整个系统。这种模式虽然看起来效率很高,但却在逐渐削弱开发者对软件系统的理解。 Jeremy 认为,这种趋势是让人类逐渐与自己的代码脱节,甚至有些“不人道”。在他看来,AI 编程真正的挑战并不是让模型写更多代码,而是如何设计一种新的协作方式,让人类和 AI 在同一个交互环境中共同工作,而不是让人类逐渐退出软件开发过程。 更严重的是,Claude Code 这种开发方式还会让人类无法学习新知识,个人能力无法得到提升。企业也正因 AI 编程累积的技术债走向衰亡,这些债务使他们既无法维护现有产品、也难以开发新产品。 “所以我觉得这就是在把企业和员工往被淘汰的绝路上推。无法理解现在竟有这么多大公司的高管在推动这种做法,简直令人惊讶。”
LIN WEI@skywind3000

m.36kr.com/p/372512732988…

中文
42
15
197
62.9K