barneybook.eth edge🦭

46K posts

barneybook.eth edge🦭 banner
barneybook.eth edge🦭

barneybook.eth edge🦭

@barneybook

I'm a Web developer for HTML5,JavaScript,CSS,PHP,jQuery,MySQL. Only interest in Web Technology. #天安門事件

Taipei ,Taiwan Katılım Nisan 2008
3.1K Takip Edilen648 Takipçiler
barneybook.eth edge🦭 retweetledi
區塊先生 🐡 ⚠️ (rock #58)
Cofounder 2 正式發表。 The General Intelligence Company 推出全新 AI 平台 Cofounder 2,讓單人可透過 AI 代理人建構完整公司組織,涵蓋工程、銷售、行銷、營運與設計等部門。 平台以組織圖形式運作,代理人可平行協作,各部門擁有專屬工作空間;頂層 Cofounder AI 負責策略監督,並採用 RTS 遊戲概念(如 Civilization)設計公司發展路線圖。
andrew pignanelli@ndrewpignanelli

Announcing Cofounder 2: Run an entire company with agents. It's the infrastructure for the one person billion dollar company - orchestrating agents across engineering, sales, marketing, ops, and design. (and yes that's my real grandma in the video)

中文
5
4
32
7.3K
barneybook.eth edge🦭 retweetledi
鸟哥 | 蓝鸟会🕊️
用苹果电脑跑本地大模型的人注意了,有个东西你们可能还不知道 Rapid-MLX,一个专门为 Apple Silicon 打造的本地 LLM 推理服务,核心就一句话——比 Ollama 快,而且快不少。 具体快多少?官方数据是 2-4 倍。背后用的是苹果自家的 MLX 框架,不是什么民间魔改,是真正吃透了 M 系列芯片架构的方案。 快在哪几个点: 1️⃣ KV 缓存裁剪加上 DeltaNet 状态快照,多轮对话的首 token 延迟压到了 0.08 秒左右,你懂这意味着什么,对话几乎感觉不到等待 2️⃣ 工具调用做了 17 种解析器,Qwen、DeepSeek、Gemma、GLM 这些主流模型直接自动识别格式,量化把输出搞坏了也能自动修回来,这个细节做得很扎实 3️⃣ OpenAI 兼容 API,Cursor、Claude Code、Aider、LangChain 统统能直接接,基本上你现在用什么工具链,切过来不用改代码 还有一些额外的东西:推理链分离、云端路由、视觉和音频多模态支持、V 缓存压缩,功能密度挺高的。 说白了就是,你有一台 M 系列 Mac,想在本地跑模型又嫌 Ollama 慢,那 Rapid-MLX 现在是最值得试的选项之一。 🔗 github.com/raullenchai/Ra…
鸟哥 | 蓝鸟会🕊️ tweet media
中文
62
167
914
89.8K
barneybook.eth edge🦭 retweetledi
鸟哥 | 蓝鸟会🕊️
你睡觉的时候,有人的代码在帮他们赚钱。 这10个GitHub仓库,藏着你不知道的被动收入密码,一个个给你拆开: 1️⃣ AutoHedge 自动对冲交易框架,AI帮你盯盘、帮你下单,你只管睡觉 github.com/The-Swarm-Corp 2️⃣ Vibe-Trading 情绪驱动的交易系统,读懂市场情绪比K线更狠 github.com/HKUDS/Vibe-Tra 3️⃣ Claude Ads 用Claude做广告自动化,投放、优化全自动,广告费省一半 github.com/AgriciDaniel/c 4️⃣ Toprank SEO自动化工具,躺着让你的内容排进谷歌首页 github.com/nowork-studio 5️⃣ Fincept Terminal 金融数据终端,Bloomberg平替,散户也能用机构级数据做决策 github.com/Fincept-Corpor… 6️⃣ Agentic Inbox Cloudflare出品的AI收件箱代理,帮你自动处理邮件、自动回复、自动分类,解放双手不是说说而已 github.com/cloudflare/age… 7️⃣ ClawRouter 上下文路由框架,多模型协同干活,一个指令分配给最合适的AI去跑 github.com/mksglu/context 8️⃣ Camofox Browser 隐身浏览器,做跨境、做矩阵账号、搞多开的兄弟懂我在说什么 github.com/jo-inc/camofox 9️⃣ Open Higgsfield AI 开源版生成式AI视频工具,Sora平替方向,内容创作者的武器库 github.com/Anil-matcha/Op… 🔟 Hyperframes HeyGen出品,AI视频帧处理框架,做视频内容自动化的直接冲 github.com/heygen-com/hyp 说真的,这些仓库不是让你一夜暴富的,但它们代表的方向是真实的—— AI正在把"睡后收入"这件事变得越来越可操作。 你现在差的不是机会,是动手的那一步。 收藏完记得点开至少一个,不然跟没看一样。
鸟哥 | 蓝鸟会🕊️ tweet media
中文
50
186
646
38.7K
barneybook.eth edge🦭 retweetledi
huangserva
huangserva@servasyy_ai·
这个也太屌了! 这个中国开发者在飞机上用 MacBook 本地跑 Llama 70B,整整 11 小时没有网络,处理了完整的客户项目。 他坐在跨大西洋航班的靠窗位置,设备是 MacBook Pro M4,64GB 内存。机上 WiFi 要价 25 美元,他拒绝了。 没有云端 API,没有连接 Anthropic 或 OpenAI 的服务器,完全没有互联网。 只有一台本地运行的 Llama 3.3 70B(bf16)和他自己写的编排脚本。 模型通过 llama.cpp 运行。生成速度 71 tokens/秒,上下文约 60,000 tokens,内存占用 48.6 GiB / 64 GiB,起飞时电池剩余 3 小时 21 分钟。 起飞前他给编排器写了这样的系统提示: "你是一个运行在单台 MacBook 上的离线编排器。没有网络。你唯一的资源是 /Users/dev/work 下的本地文件、localhost:8080 的 Llama 70B 推理服务,以及 3 小时 21 分钟的电池预算。处理 /Users/dev/work/queue.jsonl 中的任务队列(每行一个客户任务)。对每个任务:起草 → 运行本地评估 → 保存产物到 /Users/dev/work/done/。每 12 个任务保存一次上下文检查点,以便更换电池后恢复。仅在队列为空或电池低于 5% 时停止。" 所以这个系统完全清楚自己运行在什么资源上。 它知道自己未来 11 小时没有外部连接。它知道自己的内存和电池都是有限的。它知道在飞机降落之前不会有人类介入。 系统跑在一个循环里。从队列取任务,推理,保存产物,写检查点。一个接一个。 当电池低于 5% 时,编排器自动暂停,等待笔记本切换到备用充电宝,然后从最后一个检查点恢复。 这是系统在飞行中的日志: "saved context checkpoint 8 of 12 (pos_min = 488, pos_max = 50118, size = 62.813 MiB)" "restored context checkpoint (pos_min = 488, pos_max = 50118)" "prompt processing progress: n_tokens = 50 / 60818" "task 37016 done | tps = 71 s tokens text → /Users/dev/work/done/proposal_westside.md" 窗外是云层、蓝天,没有 WiFi。托盘上是一台 MacBook,一个打开的终端,两个屏幕,一个 localhost 推理服务。 这是过去一年里我见过的最漂亮的离线 AI 工作流: 11 小时飞行,WiFi 费用 0 美元,所有客户队列在降落前全部清空。 这个故事的核心不是技术多牛(llama.cpp 跑 70B 现在很常规),而是一个完整的离线自主工作流,编排器理解自己的资源约束,自动管理电池和检查点,没人干预干了 11 小时。 这种"self-aware computing"的感觉确实挺酷的! x.com/i/status/20499…
Blaze@browomo

This Chinese developer launched Llama 70B locally on a MacBook on a plane and for a full 11 hours without internet ran client projects. He was sitting by the window on a transatlantic flight with a MacBook Pro M4 with 64 GB of memory. WiFi on board cost $25 for the flight. He declined. No cloud API, no connection to Anthropic or OpenAI servers, no internet at all. Just a local Llama 3.3 70B on bf16 and his own orchestrator script. The model runs through llama.cpp. Generation speed, 71 tokens per second. Context around 60,000 tokens. Memory usage, 48.6 GiB out of 64. Battery at takeoff, 3 hours 21 minutes. And he gave the orchestrator this system prompt before takeoff: "You are an offline orchestrator running on a single MacBook. There is no network. The only resources you have are local files in /Users/dev/work, the Llama 70B inference server at localhost:8080, and a battery budget of 3 hours 21 minutes. Process the queue at /Users/dev/work/queue.jsonl (one client task per line). For each task: draft → run local evals → save artefact to /Users/dev/work/done/. Save context checkpoints every 12 tasks so you can resume after a battery swap. Stop only on empty queue or when battery drops below 5%." So the system knows exactly what resources it is running on. It knows it has no connection to the outside world for the next 11 hours. It knows it has finite memory and a finite battery. It knows the human will not intervene until the plane lands. The system runs in 1 loop. Takes a task from the queue, runs it through inference, saves the artifact, writes a checkpoint. Task after task, just like that. And only when the battery drops below 5% does the orchestrator automatically pause, waits for the laptop to switch to the backup power bank, and continues from the last checkpoint. Here is what the system actually writes in his log during the flight: "saved context checkpoint 8 of 12 (pos_min = 488, pos_max = 50118, size = 62.813 MiB)" "restored context checkpoint (pos_min = 488, pos_max = 50118)" "prompt processing progress: n_tokens = 50 / 60 818" "task 37016 done | tps = 71 s tokens text → /Users/dev/work/done/proposal_westside.md" Outside the window, clouds, blue sky, and no WiFi. On the tray, 1 MacBook, an open terminal on 2 screens, and an inference server on localhost. From what I have observed, this is the cleanest offline AI workflow I have seen in the past year: 11 hours of flight, $0 for WiFi, and the entire client queue closed before landing.

中文
121
244
1.5K
522.7K
barneybook.eth edge🦭 retweetledi
barneybook.eth edge🦭 retweetledi
花澤香菜
花澤香菜@hanazawa_staff·
୨୧‥∵‥‥∵‥‥∵‥‥∵‥‥∵‥୨୧ HANAZAWA KANA LIVE 2026 KANAMEGURI in TAIPEI ✈️ 💐開催決定💐 ୨୧‥∵‥‥∵‥‥∵‥‥∵‥‥∵‥୨୧ 公演日:2026.09.26(Sat.) 公演場所:レガシー·タイペイ 続報をお待ちください✨(ぽ)
花澤香菜 tweet media
日本語
10
410
2.9K
82.4K
barneybook.eth edge🦭 retweetledi
粉紅萬事屋
粉紅萬事屋@BravoAmani·
壞消息:傳奇鍵盤廠商FILCO宣布停業了 好消息:FILCO的台灣代工商把品牌拿下了,他們會繼續出FILCO的鍵盤 台灣人,強大
粉紅萬事屋 tweet media
中文
92
4K
11.6K
620.8K
barneybook.eth edge🦭 retweetledi
ちいかわ💫アニメ火金
映画ちいかわ🏝️メインビジュアル解禁! 7月24日(金)公開です🎬 #映画ちいかわ
ちいかわ💫アニメ火金 tweet media
日本語
2.2K
66.7K
257.1K
14.5M
barneybook.eth edge🦭 retweetledi
聪哥.sats
聪哥.sats@congge918·
不会写 AI 提示词=主动降低 AI 能力 安装这个 Skill,让你的 AI 理解能力提升数倍! 「Prompt Optimizer 」 这个提示词优化器 Skill ,一定要给你的小龙虾/爱马仕等 AI 装上,Github 已获 2.7 万+Star 。 如何安装?直接把技能 Github 链接丢给你的 AI 安装: github.com/linshenkx/prom… 安装完后,你下达的指定会通过提示词优化器进行优化,AI 便能高效理解。 同时还具有提示词迭代改进功能,例如: 你看到一个别人分享的文生图片提示词,你想结合自身需求套用的话,直接把提示词丢给 AI 并告诉你的额外需求,就会自动进行迭代改进。 总的来说,Prompt Optimizer 的核心功能如下: - 智能优化:一键优化提示词,支持多轮迭代改进,提升 AI 回复准确度。 - 双模式优化:支持系统提示词优化和用户提示词优化,满足不同使用场景。 - 分析与对比评估:支持分析、单结果评估和多结果对比评估,帮助判断提示词是否真的改进。 - 多模型集成:支持 OpenAI、Gemini、DeepSeek、智谱 AI、SiliconFlow 等主流 AI 模型。 - 图像生成:支持文生图(T2 I)和图生图(I2 I),集成 Gemini、Seedream 等图像模型。 - 高级测试模式:上下文变量管理、多轮会话测试、工具调用(Function Calling)支持。 - 安全架构:纯客户端处理,数据直接与 AI 服务商交互,不经过中间服务器。 - 多端支持:同时提供 Web 应用、桌面应用、Chrome 插件和 Docker 配置四种使用方式。 - 访问控制:支持密码保护功能,部署保障安全。 - MCP 协议支持:支持 Model Context Protocol (MCP)协议,可与 Claude Desktop 等 MCP 兼容应用集成。 Prompt Optimizer 最关键的作用在于让 AI 不在顺着你的话说: 同样的输入下,系统提示词优化使小模型能够从泛泛而谈的附和回答式,转向更多分析、更多结构的批评式审查,指出明显论点中的漏洞、风险与隐含假设。 写不好提示词,想提升 AI 理解能力的,可以去体验下。
聪哥.sats tweet media
中文
28
52
210
18.8K
barneybook.eth edge🦭 retweetledi
Akshay 🚀
Akshay 🚀@akshay_pachaar·
CPU vs GPU vs TPU vs NPU vs LPU, explained visually: 5 hardware architectures power AI today. Each one makes a fundamentally different tradeoff between flexibility, parallelism, and memory access. > CPU It is built for general-purpose computing. A few powerful cores handle complex logic, branching, and system-level tasks. It has deep cache hierarchies and off-chip main memory (DRAM). It's great for operating systems, databases, and decision-heavy code, but not that great for repetitive math like matrix multiplications. > GPU Instead of a few powerful cores, GPUs spread work across thousands of smaller cores that all execute the same instruction on different data. This is why GPUs dominate AI training. The parallelism maps directly to the kind of math neural networks need. > TPU They go one step further with specialization. The core compute unit is a grid of multiply-accumulate (MAC) units where data flows through in a wave pattern. Weights enter from one side, activations from the other, and partial results propagate without going back to memory each time. The entire execution is compiler-controlled, not hardware-scheduled. Google designed TPUs specifically for neural network workloads. > NPU This is an edge-optimized variant. The architecture is built around a Neural Compute Engine packed with MAC arrays and on-chip SRAM, but instead of high-bandwidth memory (HBM), NPUs use low-power system memory. The design goal is to run inference at single-digit watt power budgets, like smartphones, wearables, and IoT devices. Apple Neural Engine and Intel's NPU follow this pattern. > LPU (Language Processing Unit) This is the newest entrant, by Groq. The architecture removes off-chip memory from the critical path entirely. All weight storage lives in on-chip SRAM. Execution is fully deterministic and compiler-scheduled, which means zero cache misses and zero runtime scheduling overhead. The tradeoff is that it provides limited memory per chip, which means you need hundreds of chips linked together to serve a single large model. But the latency advantage is real. AI compute has evolved from general-purpose flexibility (CPU) to extreme specialization (LPU). Each step trades some level of generality for efficiency. The visual below maps the internal architecture of all five side by side. 👉 Over to you: Which of these 5 have you actually worked with or deployed on?
GIF
English
70
873
3.2K
240.7K
barneybook.eth edge🦭 retweetledi
Guri Singh
Guri Singh@heygurisingh·
10 GitHub repos that print money while you sleep: 1. AutoHedge github.com/The-Swarm-Corp… 2. Vibe-Trading github.com/HKUDS/Vibe-Tra… 3. Claude Ads github.com/AgriciDaniel/c… 4. Toprank github.com/nowork-studio/… 5. Fincept Terminal github.com/Fincept-Corpor… 6. Agentic Inbox github.com/cloudflare/age… 7. ClawRouter github.com/mksglu/context… 8. Camofox Browser github.com/jo-inc/camofox… 9. Open Higgsfield AI github.com/Anil-matcha/Op… 10. Hyperframes github.com/heygen-com/hyp…
Guri Singh tweet mediaGuri Singh tweet media
English
75
1.1K
6.3K
512.1K
barneybook.eth edge🦭 retweetledi
Yangyi
Yangyi@yangyi·
AI时代个体创业路径: 1、如果你有本职工作,请先从副业开始 2、先学会使用科学上网,再学会使用chatgpt,claude,gemini的御三家之一 3、不要买任何课,但一定要买御三家任意一个会员,推荐chatgpt,因为有image-2的作图能力,可以解决很多引流问题 4、把你过往所有的经历,和你当下的想法,输入给ai 5、让ai提供一些符合你的,低风险无成本创业方法 6、问ai,客户是谁,他们在意什么,他们在哪儿聚集,该如何吸引客户 7、让ai帮助你设计引流内容,image2出图 8、发布内容,引流,设定失败目标,要求自己先失败100次(发100次内容找不到客户) 9、设计销售话术,售卖,成功后,找货,找服务 10、交付,进入循环 11、在这个过程中,不断把成果分享给ai,并询问ai,有什么可以优化的 12、不断优化迭代,提高效率 13、当自己的负载不够时,开始全职。考虑办个公司,申请个OPC场地,招俩学徒,继续扩展 14、如果需求仍然很多,吃不下,考虑卖课,把模式卖出去,卖加盟,锁定好供应链做分销,这样降低了学徒工资的风险,还可以快速回笼资金 15、不要把钱消费了,而是去买各种私董会,去破圈,提升认知 16、找下一个机会,和你认可的人一同合作,继续循环 错误创业路径: 1、没有任何生意,先弄场地,雇人 2、付费报课,加盟 3、囤货 动作顺序如果错了,就是高风险创业 当风险高的时候,心态会扭曲,动作会变形 保有这个顺序,期望你顺利创造自己的小事业
中文
68
654
3.2K
259.7K
barneybook.eth edge🦭 retweetledi
Berryxia.AI
Berryxia.AI@berryxia·
🚨 微软刚刚开源炸场了! TRELLIS.2 —— 40亿参数图像转3D模型 一张图片 → 仅需3秒 就能生成带完整PBR材质(粗糙度、金属度、不透明度)的超高质量3D资产! 不是粗糙网格,而是直接能用的专业级模型 连开放表面、空心内部、复杂几何体都轻松搞定!
中文
38
330
2K
192.9K
barneybook.eth edge🦭 retweetledi
Colin Wu
Colin Wu@colinwu·
看了五源资本合伙人孟醒最新的硅谷 AI 文章,好有意思: 硅谷共识是还要裁掉 80% 的人类? 马斯克的 xAI 为什么搞不成? 很多创业公司开始招 “AI builder” 的新角色? CEO 们都在“买比特币、建地堡、给家里装防弹玻璃”? “未来的情形可能是,10 个人干过去 100 个人的活,拿 20 份钱,然后 90 个人失业。” 当 AI 什么都能做的时候,人的价值正在从 “会做什么”,变成判断 “什么值得做、什么不该做” 的。 一些笔记: 1、整个 Meta 几万工程师,全员都在用 Claude Code,搞内部 token 消耗排行榜,末尾可能被裁员;Meta 裁员也最狠,已经裁了上万人,把人的成本换成了 token 成本,硅谷共识是科技公司应该需要裁掉 80% 的人 2、马斯克过去做 SpaceX、做特斯拉,本质上做的是系统工程:链路很长,涉及软件、硬件、供应链,每一块都有创新空间,但最终是一个端到端的工程问题。他擅长的是在这种长链条里,识别出关键杠杆点,然后极限压缩时间线来攻克。火箭发动机级联、复用着陆,都是这种思维的产物。xAI 的问题是没有全局规划,只有冲刺。 xAI 的一位 cofounder 去年就说有两件事他没想到:第一是竞争这么惨烈,第二是 AI 时代应用创新的机会这么少,都被模型吃掉了。 3、更激进一点想:今天所谓的 “AI native 组织”,听起来很 sexy——让每个部门梳理工作流、把能被 AI 介入的部分线上化、写成 skills。但本质上就是在人肉蒸馏自己:你把你的能力变成机器的 skill,公司拿到了你的 skill,实际上就已经完成 AI 化了,是否要由此裁员,那是一个道义的问题。今天 Meta 就是在干这件事。 4、整个硅谷都在盯着 Meta,如果它的实验成功了——营收没掉、效率真上去了,其他大厂会迅速跟进,裁员就从个案变成行业常态。而且裁员有一个残酷的自加速机制:一开始大家不敢裁,怕伤士气;一旦变成常态,就越裁越快、越裁越不心疼。 5、很多创业公司开始招一种叫 “AI builder” 的新角色——合并了产品经理、前端工程师、后端工程师于一身。还有一种是合并了数据科学家和机器学习工程师的复合岗,以及合并了写作、投放、运营的内容一体化操盘手。 6、这个看似分布式创新的世界,底层其实在极度中心化。这个中心就是英伟达。如果你今天能稳定地提供一个 API 服务,比如 Claude 的 API,做到 99 分位的稳定性,你可以卖官方 API 价格的两到三倍。 在 2028 年之前,没有任何一家 AI 公司能靠堆算力显著拉开差距。算力约束客观上在强化大模型市场的寡头格局——不是谁不努力,是物理世界的制造周期就是这么慢。背后的权力结构很清楚:谁有卡谁厉害,谁有卡由英伟达决定。今天上市的 CoreWeave、Lambda、Nebius,背后站的都是英伟达。 7、这次硅谷行,反复听到朋友们在认真讨论同一件事:买比特币、建地堡、给家里装防弹玻璃,他们都不是开玩笑的语气。为 CEO 提供住宅安防的企业,创下了 2003 年以来的最高增长水平。 全文: mp.weixin.qq.com/s/kwErGjX231e2…
中文
38
93
430
121.6K
barneybook.eth edge🦭 retweetledi
鸭哥
鸭哥@grapeot·
Anthropic 上周静默上线了一个开关:让自家桌面 app Cowork 跑别家模型。GPT-5.5、Gemini、DeepSeek 都行。没有发布会。 更反常的是,这条路上 Anthropic 不光收不到订阅费,连用户数据都拿不到——prompt 不经过它、telemetry 可关。一家 frontier 实验室主动让出数据飞轮。 要读懂这一步,得把它跟三月那一刀放一起:三月封别人蹭我家订阅,四月让我家客户端蹭别人。两面合起来只有一个判断。 yage.ai/share/cowork-3…
中文
9
18
120
38K
barneybook.eth edge🦭 retweetledi
Jingyuan缘缘
Jingyuan缘缘@Jingyuan_521·
我这两天被这个爆火的Flipbook刷屏并被震撼到,现在的UI界面也许会在不久的将来彻底改变。Flipbook是三星工程师(前Open AI)@zan2434和另外两个伙伴做的一个无限视觉浏览器,根据你的搜索词,实时用像素生成一张类似百科全书里的动态插画,连文字也是像素组成,没有代码,没有HTML,画面上的任何区域你都可以点击,生成这块区域的进一步画面。 而且作者们调制的这个画面风格太好看了,我小时候要是有这玩意能玩一整天不吃不喝,完全就是一本无限魔法书。 作者直接展示了在这上面搜索巴黎旅游景点,还直接买了巴黎圣母院的票。我自己也用来搜索了清迈,效果惊人,但可惜这两天太火了我一直没能连接上视频动态效果。虽然目前的算力无法实现规模化,作者也说目前只是展示测试阶段,但是我这次是真真切切感受到了AI带来的改革,未来就快来了。
中文
162
344
2.9K
324.9K
barneybook.eth edge🦭 retweetledi
GitHubDaily
GitHubDaily@GitHub_Daily·
在 GitHub 上看到 Learn Harness Engineering 这门开源课程,教我们给 AI 编程助手搭建一套可靠的工作环境。 围绕 AI 构建指令、状态、验证、范围、会话五大机制,让每次任务都有据可查、可接续、可验证。 GitHub:github.com/walkinglabs/le… 课程包含 12 节理论课和 6 个实战项目,通过真实实现一个桌面应用逐步演进。 从最基础的对比实验开始,一步步搭建完整的工作环境,每个项目的成果直接作为下一个项目的起点。 还提供了现成的模板文件,拿来放进自己的项目里就能用,不用学完整门课也能立刻改善 AI 的工作稳定性。 如果你已经在用 Claude Code 或 Codex 做实际开发,但总觉得 AI 不够靠谱,这门课值得花时间看看。
GitHubDaily tweet mediaGitHubDaily tweet media
中文
7
147
771
62K
barneybook.eth edge🦭 retweetledi
棚哥说加密
棚哥说加密@LQP2021·
Anthropic 官方团队亲自演示了 Claude Code 的正确打开方式,这才是真正的高阶用法。 全程仅需30分钟,而且完全免费,主讲人就是 Claude Code 的核心开发者。 一定要去看这场工作坊,建议直接收藏。 它带来的价值,远比那些标价几百美元的付费课程要高得多。 你平时也在用 Claude,但大概率还不知道它藏着40个实用指令。
中文
403
2.5K
13.7K
1.5M
barneybook.eth edge🦭 retweetledi
Intl Econ Observe
Intl Econ Observe@IEObserve·
好吧,其實他說的也沒毛病。因為確實一般人越來越討厭大部分的AI前沿領導者,也加大了民間投資AI基建的阻力。 AI 正在重新定義企業運作的方式,而最直接的證據就是 token 支出的爆炸性成長。SemiAnalysis 創辦人 Dylan Patel 在這次訪談中,從自身企業經驗出發,深入剖析了 AI token 的供需動態、模型競爭格局,以及這場技術革命對經濟結構帶來的根本性衝擊。 #一家公司的AI支出暴增記 Dylan Patel 回顧了自家公司在 AI 支出上的驚人變化。去年他們自認已是 AI 重度使用者,為員工提供各種訂閱,整體花費大約在數萬美元的規模。但今年一切都不同了。 「今年的支出直接飆升,真正的轉折點是去年 12 月底 Opus 推出之後。」他提到公司總裁 Doug Olaflin 是非技術人員使用 AI 寫程式的先驅,逐步帶動了整個公司的風氣。「一月份支出開始急速攀升,我們簽了 Anthropic 的企業合約,現在年化支出已經到了 700 萬美元。」 他進一步做了一個驚人的對比:公司薪資支出大約在 2500 萬美元左右,也就是說 Claude Code 的花費已經佔薪資的 25% 以上。「如果這個趨勢持續下去,到年底我們在 AI 上的花費可能會超過薪資總額。這有點嚇人。」 #一個人做完一整個團隊的工作 Patel 舉了幾個具體案例來說明 AI 帶來的生產力躍升。第一個是他們在 Oregon 的逆向工程實驗室。過去分析晶片的材料與架構是一個非常緩慢的過程,但團隊中一位曾在 Intel 工作的成員,僅花了幾千美元的 Claude token,就建出一套 GPU 加速的應用程式,能自動辨識晶片影像中每一種材料的位置。 「他說這在 Intel 是一整個團隊的工作量,現在一個人用幾千美元就搞定了。」 另一個案例更令人印象深刻。一位名叫 Malcolm 的經濟學家,之前在一家大型銀行的經濟研究部門工作,那個部門有 100 到 200 人。他獨自一人透過 AI,串接了 FRED 等各種經濟數據 API,跑回歸分析,研究各種經濟變革對通膨與通縮的影響。他還用 AI 分析了美國勞工統計局的 2000 項工作任務,評估哪些能被 AI 取代,並據此創造了一個全新的基準指標。 「他說這種工作量,以前要 200 個經濟學家花一整年才能完成。他完全沉迷在 Claude 裡面,說一切都變了。」 Malcolm 還提出了一個有趣的概念叫「幽靈 GDP」(Phantom GDP):產出可以大幅提升,但因為成本急劇下降,帳面上的 GDP 反而可能縮減。 #不採用AI就等著被淘汰 作為企業經營者,Patel 並不打算控制 AI 支出。他認為這是一場生存競爭。 「我做的是資訊服務業。如果我不持續進步,這些東西很快就會被商品化。我 2023 年做的那些事情,現在大家都會做了。如果我不把標準往上拉,我就會被淘汰。如果我不夠快,我也會失去優勢。」 他舉了能源數據市場的例子。這個市場規模約 9 億美元,他們花了一年多、投入多位分析師都沒有真正突破。然後「Claude Code 狂熱」(Claude Code Psychosis)擊中了團隊中的一位成員 Jeremy。 「他三週內花了大量的 token,有時候一天就花 6000 美元。他爬取了美國每一座發電廠、每一條超過特定電壓的輸電線路,建立了整個美國電網的完整地圖,加上各種需求來源的數據。」他們把成果展示給能源交易客戶看,對方的反應是:「這比 XYZ 公司做的還好,那家公司有 100 個人做了 10 年。」 #Token需求的爆發式成長 Patel 從宏觀角度分析了 token 需求的現況。他指出 Anthropic 的營收已經從年初的 90 億美元年化成長到 350 至 400 億美元,甚至可能更高。透過計算,即使假設所有新增的算力都用於推論,Anthropic 的毛利率底線也在 72%,實際可能更高。而在年初,外流的募資文件顯示毛利率才 30% 出頭。 「這種業務怎麼可能毛利率成長這麼快?答案就是需求太強了。他們能夠削減使用限制和速率限制。真正重要的是你有沒有 Anthropic 的企業合約,能不能拿到你需要的速率限制提升,因為 token 的需求實在太瘋狂了。」 他認為最核心的觀念是:各種企業使用 token 創造的價值,遠超過他們為 token 支付的費用。「Anthropic 收到 400 億美元的 token 營收,但那些 token 創造的價值遠不止 400 億。真正重要的是,你能不能拿到最聰明的 token,然後把它們用在最有價值的地方。」 至於那些用 Claude 寫出一個普通 SaaS 產品的新創公司?「他們並沒有真正創造多少價值,所以他們很快就會被 token 的價格擠出市場。」 #當執行變得廉價:經濟邏輯的根本翻轉 這次訪談中最核心的洞察,是關於「創意 vs 執行」的權力翻轉。 「過去真正重要的是執行力,因為執行極其困難,而點子很廉價。現在點子依然廉價而且到處都是,但執行變得非常容易。所以,只有真正好的點子才值得花錢去用極低成本的方式實現。」 他用模型開發本身來說明這個邏輯:過去要實現一個研究想法,實作過程非常艱難。現在實作變得容易(雖然依然昂貴),所以可以嘗試更多想法,模型的發布週期從六個月壓縮到了兩個月。同樣的邏輯也適用於一般企業。 這讓他感到某種程度的恐懼。「社會要如何重新組織自己?在一個你的執行能力其實不再那麼重要的世界裡,人要怎麼生存?真正重要的是你選擇正確想法讓 AI 去執行的能力,以及你把 AI 做出的成果賣出去的能力。」 #模型囤積:誰能拿到最好的 token? Patel 描繪了一個越來越不平等的 AI 存取格局。Mythos 目前只提供給頂級銀行用於網路安全,一般企業根本拿不到。 「我可以想像一個未來,因為我有 Anthropic 企業合約,而且 Anthropic 的人還蠻喜歡我的,他們願意給我稍微早一點的存取權限或稍高的速率限制。然後我的競爭對手沒有這些,我就能徹底碾壓他們。」 他提到 Citadel 的 Ken Griffin 這類超級富豪可能直接跟 OpenAI 或 Anthropic 簽下協議,每年率先購買 100 億美元的 token。「然後其他人要等他用完才能拿到模型。這會怎麼樣?他會碾壓市場上所有人。」 「AI 非常昂貴。誰來付那一兆美元的基礎設施費用?是有錢的人,是能用 AI 做出有用東西的人。然後你又不想讓別人蒸餾你的模型,所以你不會大規模釋出,而是只給越來越少的客戶。」 #不用更多token,就永遠待在底層 Patel 提出了一個尖銳的警告:如果你不使用更多 token,就無法擺脫「永久底層階級」。 「有三個問題要解決:使用更多的 token、從那些 token 中產生價值、然後從你創造的價值中捕獲價值。如果你不做這三件事,隨著模型能力持續飆升、資源可能越來越集中,你就永遠無法脫離底層。」 他也區分了兩種態度。「很多人用很無聊的方式在用 AI:本來工作八小時,現在讓 AI 做大部分的事,自己只做一小時。比較酷的方式是,我繼續工作八小時,但產出是以前的八倍,也許收入變成五倍。」他強調要趁 AI 還沒有變成基本門檻之前,先搶到經濟價值。 #供應鏈全面緊繃:從記憶體到銅箔 談到供應面,Patel 描述了一個從上到下全面吃緊的景象。GPU 價格正在上漲,使用壽命也在延長。 「有些人主張 GPU 的使用壽命不到五年,完全是胡說。現在有三四年前的 Hopper 叢集在續約三到四年,A100 叢集也在續約。使用壽命明顯不是五年,可能是七到八年。而且續約價格還在上漲。」 記憶體方面更加嚴峻。即使需求訊號在 2025 年底就已經非常強勁,記憶體公司也立刻開始反應,但真正的新增產能最快也要 2027 年底到 2028 年才會到位。「DRAM 價格還會再翻兩到三倍。很多人說記憶體題材已經被玩過了,根本不是。」 他指出整個供應鏈都處於類似狀態。ASML 完全售罄,需要 Carl Zeiss 加速擴產。做 PCB 所需的銅箔也售罄了,到處都有人在搶購預付產能。 TSMC 今年的資本支出已經接近 575 億美元。「但大家沒在關注的是明年和後年會怎樣。三年後 TSMC 可能會花 1000 億美元在資本支出上。聽起來瘋狂,但這是非常真實的可能性。」而這對下游供應鏈產生的鞭尾效應會越來越劇烈。 #被忽視的瓶頸:CPU 的角色 GPU 一直是焦點,但 Patel 強調 CPU 同樣面臨嚴重的供不應求。原因有兩個。 第一是強化學習。模型需要在各種環境中嘗試不同的做法,這些環境跑在 CPU 上,不是 GPU。「這些環境可以很簡單,也可以很複雜,比如要模型打開一個檔案、編輯它、提交到某個網站,或是打開 Siemens 的物理模擬器去編輯 CAD 模型。」 第二是部署。模型產生的程式碼和輸出最終要跑在某個應用上,而那些應用跑在 CPU 上。再加上所有人用 AI 產生的大量「低品質程式碼」也需要 CPU 資源來運行,CPU 已經完全售罄。 #機器人:Token 需求的下一波浪潮 被問到機器人是否會成為下一個重大的 token 需求來源時,Patel 表達了樂觀但務實的看法。 他提到一個叫做「純軟體奇點」(Software Only Singularity)的概念,意思是 AI 的奇點可能先在軟體領域發生,但真實世界大部分是實體的。「我認為純軟體奇點只是一個過渡階段。一旦軟體變得超級容易,機器人最困難的部分,也就是控制微控制器和致動器這些事情,也會被解決。」 目前流行的視覺語言動作模型(VLA)可能不是最終的解決方案,因為它們在數據效率上有問題。但他認為在未來 6 到 18 個月內,會出現能夠做到「少樣本學習」(Few-Shot Learning)的突破。「會有一個預訓練的機器人模型,你買了一個機器人,給它看幾個範例,它就能做到。」 #Tokconomics:最難回答的問題 被問到在追蹤供需動態時最想知道什麼,Patel 坦言最困難的是理解 token 的真實經濟價值。 「我們對基礎設施成本、token 成本、模型成本、實驗室的利潤率都有非常好的掌握。但使用量和採用速度是真正難以建模的部分。我們一月份做了瘋狂的預估,Anthropic 還是超過了。二月、三月都是如此。大家看到每月增加 100 億營收的數字都在問:誰在用這麼多 token?」 更深層的問題是:這些 token 到底創造了多少真實的經濟價值?「我用 token 做出更好的資訊,然後以相對較低的價格賣出去,這些資訊流入經濟體系,幫助人們做出更好的投資或競爭決策。但這些價值在任何 GDP 統計中都看不到。如果你問 Dylan Patel 貢獻了多少 GDP,那個數字跟我認為實際創造的價值相比,微不足道。」 #三個月後的預測:大規模抗議 訪談最後,Patel 做了一個出人意料的預測:三個月內會出現針對 Anthropic 和 OpenAI 的大規模抗議。 「大眾討厭 AI。AI 的受歡迎程度比政治人物還低。隨著 Anthropic 營收暴增,下游的商業變化會開始出現,人們會越來越害怕 AI,會開始把各種長期存在的社會問題怪罪到 AI 頭上。」 他提到 Sam Altman 的住處在兩週內被扔了兩次汽油彈,而新聞下面的留言竟然是一片叫好。「這只是開始。」 對於 AI 產業該如何應對,他的建議相當直白:「首先,Sam Altman 和 Dario 要停止接受採訪。他們太沒魅力了,每次受訪都讓普通人更討厭他們。」 他接著說,AI 公司需要展示 AI 帶來的正面影響,停止不斷強調 AI 將如何改變世界的能力,因為這只會讓沒有接觸過 AI 的一般人更加恐懼。 「一般人不認識任何一個 Anthropic 或 OpenAI 的員工,不知道這些人是誰、目標是什麼。他們只覺得這是一小群陰謀家,要自動化所有工作、摧毀社會。AI 公司必須停止談論未來會發生什麼事,只談現在 AI 如何實際幫助人們。這需要一次巨大的品牌重塑。」
Intl Econ Observe tweet media
中文
4
27
215
12.6K
barneybook.eth edge🦭 retweetledi
AYi
AYi@AYi_AInotes·
说个暴论,现在90%的AI Agent记忆,全都是假的。 我之前也踩过这个坑,把所有历史记录决策日志全堆进Markdown文件里,以为这就是给Agent加了长期记忆,结果用了两周就崩了, 同一个事实有三个互相矛盾的版本,上个月的偏好和昨天的权重一模一样,每次调用都把所有东西一股脑塞进上下文,慢到离谱还经常串台, 直到看到这篇文章才恍然大悟,原来我根本不是在做记忆,只是在把Prompt当RAM用🌚 真正的记忆不是堆文件,应该是图和节点加嵌入加遍历, Markdown方案有四个根本解决不了的硬伤,没有去重,没有衰减,没有排名,超过一百条记录直接变成性能杀手, 它只能记住你写过什么,永远记不住这件事和那件事有什么关系, 这个决策为什么被否决,上次遇到同样的bug我们是怎么解决的。 向量检索也不行,它只能告诉你这两段话长得像,不能告诉你它们之间的因果关系, 只有图遍历能做到,它能像人脑一样,从一个节点牵出一整条相关的记忆链, 重要的事情越来越清晰,过时的信息自动淡化,矛盾的内容在写入时就被解决。 现在所有生产级的Agent框架,Zep Cognee Mem0,全都是基于图的, Neo4j已经把图记忆做成了标准的MCP工具, Claude Code超过二十万行代码之后,纯上下文窗口早就没戏了, 真正能让它像高级工程师一样思考的, 是把不变的规则放在CLAUDE.md里, 把所有演化的状态全部存在图里,动态检索按需拉取。 很多人还在卷一百万两千万的上下文窗口,以为越大越好, 但生产环境里真正致命的, 永远是跨会话的记忆漂移和上下文污染, 内存架构的升级已经不是锦上添花了,能不能把Agent真正用起来才是关键的生死线。
AYi tweet mediaAYi tweet media
AI Edge@aiedge_

x.com/i/article/2044…

中文
115
466
2.9K
705.3K