Leonard Chen

550 posts

Leonard Chen banner
Leonard Chen

Leonard Chen

@lunalunadic

lunadic.eth | AI enthusiast | Wealth Management | data analytics @NYUStern | private banker

nowhere Se unió Mart 2019
298 Siguiendo78 Seguidores
Leonard Chen
Leonard Chen@lunalunadic·
这个合作目前看来win-win的想象空间很大,对于SpaceX,面对短期算力和长期基础设施对资金的天量需求,今年需要全力冲刺IPO,而目前自研的方案对投资人来说并不性感,相比之下,和Cursor合作甚至是收购Cursor就一下子柳暗花明又一村了,除了Anthropic和OpenAI,如果非要找一个在AI编码和Agent方面稳步发力的公司,也只能是Cursor。 @dotey 的分析指出了Cursor也非常需要一个财力雄厚的算力靠山,两者的合作是解SpaceX上市的燃眉之急,再共同谋划更大的基础设施支撑,在保持Cursor当前的分发强势的前提下,尽可能地追赶智能体第一梯队的选手们。
宝玉@dotey

SpaceX 宣布与 AI 编程工具 Cursor 达成深度合作,并获得了一个选择权:今年晚些时候,要么以 600 亿美元收购 Cursor,要么支付 100 亿美元作为合作费用。 Cursor 是目前最火的 AI 编程工具之一,很多开发者用它来写代码,它的核心能力是把 AI 模型嵌入代码编辑器,让写代码变得更快更智能。Cursor CEO Michael Truell 在 X 上表示,这次合作将帮助团队扩展 Composer(Cursor 的核心 AI 模型)的训练规模。 Cursor 在声明中说,团队一直想大幅推进模型训练,但被算力瓶颈卡住了。通过这次合作,他们将利用 xAI 的 Colossus 基础设施来大幅提升模型能力。 这里的关键背景是:今年 2 月,马斯克把 xAI 并入了 SpaceX,合并估值 1.25 万亿美元。SpaceX 旗下的 Colossus 超算号称拥有相当于 100 万块 H100 的算力,这是 Cursor 最看重的资源。而 SpaceX 正在筹备今年夏天的 IPO,很可能成为史上最大规模的上市。在 IPO 前绑定一个增长最快的 AI 编程工具,显然是为了给估值故事加码。 值得注意的是,Cursor 目前仍在销售和使用 Claude 和 GPT 模型,而 Anthropic 和 OpenAI 都在推自己的编程工具,这种关系本身就很微妙。与 SpaceX 的合作,可能就是 Cursor 为摆脱这种尴尬局面做的准备。 Cursor 的估值增长速度本身就是一个故事:去年 1 月估值 25 亿美元,5 月涨到 90 亿,11 月 Series D 轮融资后达到 293 亿,现在传出的融资估值已经超过 500 亿。600 亿美元的收购选择权意味着又一次大幅溢价。 对开发者来说,这件事的实际影响取决于 Cursor 拿到 Colossus 算力后,自研模型能提升到什么水平。如果 Cursor 真的训出了足够强的自有模型,它对 Claude 和 GPT 的依赖就会降低,产品的定价和功能策略都可能随之改变。至于 600 亿收购会不会真的发生,还是最终走 100 亿合作费的路线,目前双方都没有给出明确时间表。

中文
1
0
1
77
Leonard Chen
Leonard Chen@lunalunadic·
离开AI这个前提可能要等到人类和天网大战那一天才有可能实现了,但这篇论文确实点出来人类往往都在fake till make it,如果不是有多层审阅,即使没有AI,也容易产生偏见和谬误。
陈成@chenchengpro

今天读到一篇很锋利的论文,提出了一个概念叫「LLM 谬误」。什么意思呢,你用 AI 写出了一篇漂亮的分析报告,然后潜意识里开始觉得「我确实有这个水平」。 这不是幻觉问题(输出对不对),不是自动化偏差(太信 AI),是一种更阴的东西,你因为用了 AI,开始太信自己。 论文拆解了四个机制, 1)归因模糊。你丢了一句模糊的提示词进去,AI 吐出来一段结构完整、论证清晰的内容。你改了几个词,又丢回去,它又优化了一版。几轮下来,你已经分不清哪些想法是你的、哪些是它的了。人的大脑有个毛病,倾向于从结果反推作者身份,「这个东西是在我的对话里产出的,所以是我的」。 2)流畅性幻觉。AI 输出天然就语法正确、逻辑通顺、风格统一,看着就像一个资深人士写的。问题是人脑会把「读起来顺畅」自动等价于「写的人很专业」,这是一个认知捷径,你根本不会去审视内容到底是怎么生成的,表面的流畅直接就把你骗过去了。 3)管道不透明。传统工具你好歹能看到中间步骤,Excel 公式、SQL 查询,过程是透明的。但 AI 的检索、模式匹配、综合推理全部藏在黑箱里,你只看到输入和输出两头。中间它到底做了多少活,你完全无从判断,也就没办法准确地分配功劳。 4)认知外包。推理让 AI 推,组织让 AI 组织,措辞让 AI 润色,你自己参与的认知深度越来越浅。反复外包之后,你连评估自己到底懂不懂的能力都退化了。越依赖越不自知,越不自知越高估,正反馈循环。 这四个齿轮一咬合,感知能力和实际能力之间就裂开一道缝,而且是系统性的那种。 更要命的是往上捅到了制度层面。候选人用 AI 辅助做出高质量 portfolio,面试官只看产出根本判断不了独立能力;学生用 AI 完成作业,成绩不再反映真实理解;资质认证的信号价值被稀释。 这篇论文目前还是纯概念性的,没有实验数据。但它给一个东西起了名字,一个几乎每个 AI 重度用户都隐约感觉到、但没人正式说破的东西。 说真的,值得反复问自己一个问题,离开 AI,你还剩多少? arxiv.org/abs/2604.14807

中文
0
0
1
32
Leonard Chen
Leonard Chen@lunalunadic·
@dontbesilent 这里的alpha是人定义的意识,beta是意识本身,我认为beta这一点AI一定可以实现
中文
0
0
0
35
dontbesilent
dontbesilent@dontbesilent·
有人说 AI 会产生意识,有人说 AI 不会产生意识 我倾向于认为这是「定义之争」而非事实之争 两边对「意识」这个词的定义不同 如果把这个词一拆为二,一个叫 α,一个叫 β,可能压根儿就不吵了
中文
6
5
15
4.6K
Leonard Chen
Leonard Chen@lunalunadic·
@turingou 在想电话,网络现在的成本是否是信息设施基建摊薄得来的,现在的数据中心,电网的费用,也会体现在未来数十年的token收费上?
中文
0
0
0
315
郭宇 guoyu.eth
郭宇 guoyu.eth@turingou·
做 tuwa 这个产品的时候很多人会觉得 token 账单会爆炸,其实 token 的费用远没有电话费用贵。这个问题让我开始思考电话已经出现了那么多年,为什么打电话的费用还那么贵?按理说,应该几乎被降低到免费才对,电话的主要成本到底是什么呢?
中文
15
2
77
47.1K
dontbesilent
dontbesilent@dontbesilent·
大家现在 vibe coding 还会写 PRD 吗 (用 AI 写也算)
中文
97
4
81
60.6K
Leonard Chen
Leonard Chen@lunalunadic·
@turingou 小红书一方面鼓励组小圈子,但又没有一个正经的社群 同好的功能,主要靠情绪化和定义化内容引发所谓“共情”
中文
0
0
3
2.8K
郭宇 guoyu.eth
郭宇 guoyu.eth@turingou·
小红书真是个神奇地方,我刚发现有人把 tuwa 这个电话 AI 产品(没经过我同意)自己发上去,评论都是骂的,我只能说这个小红书产品的用户真牛逼。
中文
26
1
259
103.4K
Leonard Chen
Leonard Chen@lunalunadic·
@oran_ge 人们始终没办法想像自己没有见过的东西
中文
0
0
0
300
Orange AI
Orange AI@oran_ge·
对最近的 AI 文章都很烦了 天天什么纺织工人,什么银行柜员 所有人都在举这些过去的老掉牙的例子 还不是自己看书得到的,是 AI 给出的例子 真的服了 这难道是 AI 给人类软性洗脑的一种方式?
中文
10
0
42
14.4K
Orange AI
Orange AI@oran_ge·
这张图非常直观,谁在推动进步一目了然
Orange AI tweet media
中文
19
7
88
38.3K
Leonard Chen
Leonard Chen@lunalunadic·
@dontbesilent 也是因为太多营销号生产的所谓爆款制作的信息茧房,譬如说做对A就可以火,千万别做B,经验这东西,天然具有主观和模糊的特质,但为了固化成产品,把经验变成了「灵丹妙药」
中文
0
0
0
9
dontbesilent
dontbesilent@dontbesilent·
大量的人把创业当成了一道选择题,而不是一道论述题 选择题的逻辑是「选对就赢」,论述题的逻辑是「你得自己写出来」 所以我在直播答疑的时候,听到提问的人跟我说:选 A 方向靠谱,还是选 B 方向靠谱 我觉得这无异于问我:选迪丽热巴还是古力娜扎 尼玛一条视频都没拍过,就搁这选方向。微信摇一摇都不愿意打开,就选迪丽热巴,选个锤子呀选
中文
13
1
39
6.3K
Leonard Chen
Leonard Chen@lunalunadic·
@starzq 大的背景是AI时代,公众对标准化或一次性的宣传「免疫」媒体内容的可信度下降,传统广告的价值正在萎缩,而内容是马拉松式的心智占领运动,正在成为新的优质「广告」,或者更通俗一点,「嘴替」。
中文
0
0
0
30
Leonard Chen
Leonard Chen@lunalunadic·
@lnkybtc 能定位到无人问津的小领域,很难说这个人和他的团队是草台班子,最多说执行能力有限,但判断力才是真正宝贵的资源…
中文
0
1
6
1.4K
秋田散人 Mr.Akita
秋田散人 Mr.Akita@lnkybtc·
一个人真正的事业起步/原始积累一般是用草台班子在无人问津的小领域做到第 1-3 名,而不是在竞争激烈的精英领域做到前 1%。反过来说,一旦你摒弃草莽进入精英叙事逻辑里,就很难出类拔萃。
中文
32
120
985
95K
Leonard Chen
Leonard Chen@lunalunadic·
P人救星,用大模型7步构建知识库。基于 Andrej Karpathy 分享的工作流整理,我拆开揉碎整理成了7步供你参考: --- 1️⃣建立原料仓库 新建raw目录,把所有想研究的内容扔进去——论文 PDF、文章、代码库、截图都行。 - 通过「Obsidian Web Clipper」插件,遇到好文章一键剪藏成Markdown文档 - 顺手把页面里的图片也下载到本地,方便大模型引用 - 不需要分类,不需要命名规范,扔进去就行 --- 2️⃣让大模型编译成百科 打开你的大模型(Claude、GPT 都行),给它一个指令: 读取目录里的所有文件,按概念分类,为每个概念写一篇文章,文章之间加反向链接,输出到wiki目录这一步不需要你整理,大模型全包。它会生成一组按目录结构组织的Markdown文件,包含摘要、反向链接、概念文章。 --- 3️⃣用 Obsidian 作为查看界面 把 raw目录和 wiki目录都放进同一个 Obsidian vault: - 可以浏览、搜索、可视化整个知识库 - Marp 插件可以把百科文章直接渲染成幻灯片 - 大模型负责写入和维护所有内容,你几乎不需要直接编辑 --- 4️⃣开始问问题 直接向大模型提问,让它在百科里检索和综合: - 不需要复杂的 RAG 系统,大模型自己维护的索引文件已经够用 - 百科积累到约 100 篇文章、40 万字的规模时,可以处理相当复杂的问题 - 输出格式不限于文字——让它生成Markdown、matplotlib 图表、Marp 幻灯片都行 --- 5️⃣把输出归档回百科 每次查询得到的好答案,让大模型把它写回百科里: - 你的每一次探索都会沉淀下来,知识库越用越厚 - 后续查询可以直接调用之前的输出,不用重复研究 --- 6️⃣定期做健康检查 让大模型扫描整个百科,执行以下任务: - 找出数据不一致的地方并修正 - 通过网络搜索填补缺失信息 - 发现值得新写的文章候选 - 提出需要进一步探讨的问题 这一步让知识库保持准确,持续生长。 --- 7️⃣造自己的工具 - 写一个简单的搜索引擎或 CLI 脚本,通过命令行交给大模型用 - 知识库够大之后,考虑用合成数据微调,让模型把知识「学进」权重里,而不只是放在上下文窗口中
Andrej Karpathy@karpathy

LLM Knowledge Bases Something I'm finding very useful recently: using LLMs to build personal knowledge bases for various topics of research interest. In this way, a large fraction of my recent token throughput is going less into manipulating code, and more into manipulating knowledge (stored as markdown and images). The latest LLMs are quite good at it. So: Data ingest: I index source documents (articles, papers, repos, datasets, images, etc.) into a raw/ directory, then I use an LLM to incrementally "compile" a wiki, which is just a collection of .md files in a directory structure. The wiki includes summaries of all the data in raw/, backlinks, and then it categorizes data into concepts, writes articles for them, and links them all. To convert web articles into .md files I like to use the Obsidian Web Clipper extension, and then I also use a hotkey to download all the related images to local so that my LLM can easily reference them. IDE: I use Obsidian as the IDE "frontend" where I can view the raw data, the the compiled wiki, and the derived visualizations. Important to note that the LLM writes and maintains all of the data of the wiki, I rarely touch it directly. I've played with a few Obsidian plugins to render and view data in other ways (e.g. Marp for slides). Q&A: Where things get interesting is that once your wiki is big enough (e.g. mine on some recent research is ~100 articles and ~400K words), you can ask your LLM agent all kinds of complex questions against the wiki, and it will go off, research the answers, etc. I thought I had to reach for fancy RAG, but the LLM has been pretty good about auto-maintaining index files and brief summaries of all the documents and it reads all the important related data fairly easily at this ~small scale. Output: Instead of getting answers in text/terminal, I like to have it render markdown files for me, or slide shows (Marp format), or matplotlib images, all of which I then view again in Obsidian. You can imagine many other visual output formats depending on the query. Often, I end up "filing" the outputs back into the wiki to enhance it for further queries. So my own explorations and queries always "add up" in the knowledge base. Linting: I've run some LLM "health checks" over the wiki to e.g. find inconsistent data, impute missing data (with web searchers), find interesting connections for new article candidates, etc., to incrementally clean up the wiki and enhance its overall data integrity. The LLMs are quite good at suggesting further questions to ask and look into. Extra tools: I find myself developing additional tools to process the data, e.g. I vibe coded a small and naive search engine over the wiki, which I both use directly (in a web ui), but more often I want to hand it off to an LLM via CLI as a tool for larger queries. Further explorations: As the repo grows, the natural desire is to also think about synthetic data generation + finetuning to have your LLM "know" the data in its weights instead of just context windows. TLDR: raw data from a given number of sources is collected, then compiled by an LLM into a .md wiki, then operated on by various CLIs by the LLM to do Q&A and to incrementally enhance the wiki, and all of it viewable in Obsidian. You rarely ever write or edit the wiki manually, it's the domain of the LLM. I think there is room here for an incredible new product instead of a hacky collection of scripts.

中文
0
0
0
109
Leonard Chen
Leonard Chen@lunalunadic·
@scarfman @pirrer 熱門產業裡的領頭公司。这句话的含金量极高,现代人经历了科网时代和智能手机时代,对科技行业的高成长性有预期,但当时可不是这样……
中文
0
0
0
22
fox hsiao
fox hsiao@pirrer·
50 年前投資蘋果覺得很貴!?適逢 Apple 成立 50 週年,紅杉資本第一次公開了創辦人 Don Valentine 在 1977 年寫的內部投資備忘錄。一張泛黃的評估表,上面有一句話整個創投圈都在轉:「非常昂貴的交易。」 60 萬美元買 10%,隱含估值 600 萬美元。Valentine 在備忘錄上直接標記這筆交易太貴了。1977 年 9 月的 Apple Computer,產業分類填的是「家用嗜好電腦」,年營收 75 萬美元,稅前利潤大約 6 萬,利潤率 5%。用這些數字回推,600 萬等於 8 倍營收、100 倍本益比,在 1977 年的標準確實不便宜。 引薦這個案子的人是 Steve Jobs 本人,備忘錄上寫著「副總裁兼創辦人」。管理團隊列了三個人:Mike Markkula 擔任董事長兼 CEO,Steve Jobs 和 Steve Wozniak 都掛「工程創辦人」。Valentine 的評語是「管理層能否勝任,存疑」。 備忘錄還透露了一個細節:Sequoia 在這輪裡不是第一順位。受邀的投資人一共五家,排序是 Venrock(洛克斐勒家族創投)、Sequoia、Arthur Rock、美國銀行、花旗銀行。Valentine 自己也寫了「這筆交易會很難搶,金額小、價格高、還只能排第二」。 但壓過所有疑慮的是另一句話:「熱門產業裡的領頭公司。」Valentine 把市場規模估在 5 億美元以上,Apple 預估隔年營收會從 75 萬跳到 1,400 萬美元,利潤衝到 70 萬。如果這些數字成真,600 萬的估值其實只有 0.4 倍遠期營收。結論標成了優先處理。 兩個月後,紅杉資本投了 15 萬美元進去。 Marc Andreessen 轉貼這份備忘錄的時候只留了一句:「滿分,毫無破綻。」言下之意是每一條判斷放到今天看都成了笑話,但當年寫的時候每一條都合理到無可挑剔。 當年那家年營收 75 萬的嗜好電腦公司,今天市值超過 3 兆美元。被嫌太貴的 600 萬估值,跟現在差了 50 萬倍。被質疑沒有商業經驗的管理層,後來造出了 Mac、iPod、iPhone,重新定義了三個產業。 Valentine 當年的每一個疑慮放在當下都合理:估值偏高、團隊沒經驗、自己還只能排第二。但他看到了一個正在爆發的市場裡跑最快的公司,然後選擇相信成長會修正所有問題。 --- 📱 請訂閱我的 Threads / Facebook / 電子報「狐說八道」 #Apple #Sequoia #DonValentine #創投 #Apple50
Sequoia Capital@sequoia

In honor of 50 years of Apple, we're sharing - for the first time ever - Don Valentine's original 1977 memo for Sequoia's investment into Apple Computer. #Apple50

中文
1
6
44
6.7K
Leonard Chen
Leonard Chen@lunalunadic·
经典力学转向量子力学时代真的是很精准,更抽象一点讲,人类全方面得从掌握确定到掌控不确定,更多事物变得可解释,世界的迷雾进一步消散。
Orange AI@oran_ge

字节要被取代了,取代它的是 token。 Karpathy 昨天在推上回了 Python 之父 Guido 一句话: LLM = CPU,Agent = 操作系统内核。 但他补了一个很关键的细节: LLM 处理的数据单位不是字节,是 token。 这个操作系统的运行方式不是确定性的,而是统计性的。 这是一种底层计算的范式转移。 过去六十年,计算机的世界建立在字节上。 一个字符 8 个 bit,精确,确定,不会出错。你写一个 1,存进去就是 1,读出来还是 1。 整个互联网、所有软件、所有数据库,都建立在这种确定性上。 现在 LLM 来了。它的基本单位是 token,不是字节。 token 是模糊的,一个词可能是一个 token,也可能被拆成两个。 它的输出是概率性的,同一个输入跑两遍可能得到不同的结果。 这就像从牛顿力学进入量子力学。 精确让位于概率,确定让位于统计。 Karpathy 把 LLM 比作 CPU,Agent 比作操作系统内核。 如果顺着这个类比往下推: 传统计算机:CPU 处理字节 → 内核调度进程 → 操作系统服务用户 AI 时代:LLM 处理 token → Agent 编排任务 → AI OS 服务用户 底层的数据单位变了,上面的一切都得跟着变。 操作系统要重写,软件要重做,人和计算机的交互方式要重新设计。 与其说是对上一代的升级,不如说是彻底换了轨道。 字节的世界里,谁掌握更多的数据(字节)谁就赢。 token 的世界里,谁掌握更多的 token 谁就赢。 字节的时代属于互联网,token 的时代属于 Agent。 BYTE ERA ➤ TOKEN ERA

中文
0
0
0
32
Leonard Chen
Leonard Chen@lunalunadic·
@NoahKingJr Agents do things you are 100% curious about but 40% sure how to do, while automation does stuff you 100% hate to do repeatedly
English
0
0
1
429
Noah
Noah@NoahKingJr·
People using AI for automation vs people using AI agents
Noah tweet media
English
180
528
6.9K
278.1K
Leonard Chen
Leonard Chen@lunalunadic·
@persdre 金融和银行业一直都是这样门阀林立啊... AI这东西本身就是打破了寒窗苦读的有效性,未来的人才考核机制必然会有一场彻头彻尾的变化,否则结果就是都在用AI学习,而AI之间亦有高低
中文
0
0
0
1.1K
Qian
Qian@persdre·
昨天下午刷到一个帖子挺震撼的。一个纽约几十人的小公司发了个27年summer intern,一天收到3000份简历。专门确认了不是Google不是Jane Street,就是个普通小公司。 为什么会这样?因为现在求职者在用Manus这类agent全自动投简历,一个prompt批量定制cover letter,一键对标JD微调。你在精心准备一份简历的时候,别人已经让大模型一天投500家了。大模型让海投成本趋近于零,结果就是HR端收到的简历变成洪水。3000份里能认真看的可能不到50份,你精心写的那份大概率连被打开的机会都没有。 海投这条路不是变难了,是物理意义上失效了。信噪比彻底崩了。 但这只是表面现象。更深层的事情是:好岗位从来就不在公开市场流通。 想想你身边真正拿到好offer的人,有几个是海投拿到的?大厂核心组的坑,leader有心仪的人选早就内定了,挂出来走流程是合规需要。读博选导师,最好的名额早就给了自己带过的RA或者师兄师姐推荐的人。创业公司核心岗位,在饭桌上微信群里就分完了。公开招聘市场越来越像残次品货架——真正好的东西在上架之前就被内部消化了。 为什么内推有效?因为推荐人拿自己的信誉做背书。HR收到3000份简历筛选成本极高,但如果核心员工说"这人我合作过,靠谱",这句话的信息量比任何简历都大。当信息过载到无法筛选时,"我认识你"就是最高效的过滤器。 我的一个判断可能不太好听:各行各业正在门阀化。过去十几年互联网高速增长,大量新岗位涌现,是一个罕见的阶级流动窗口。草根凭能力上桌,学历不够靠项目补,路径虽然难但至少存在。现在增量消失了,存量博弈,好坑就那么多,优先给谁?当然是给自己人。自己带过的学生、一起创过业的兄弟、圈子里知根知底的人。不是谁坏,是人性,也是效率最优解。 每个行业都在形成自己的门阀。学术圈有学术谱系,大厂有核心组校友网,VC有deal flow圈子,娱乐圈更不用说。你不在圈子里,你甚至不知道机会的存在。 所以怎么办?不是躺平,也不是更疯狂地海投,而是换一个底层逻辑:从"投简历找工作"切换到"拜山门积累信任"。找到你想进的圈子,先去做贡献而不是上来就要机会。做能被看见的project,跟牛人产生真实的协作关系,哪怕从免费帮忙开始。信任不是一天建立的——它靠的是一起做过project、一起扛过deadline、在某个社群里持续输出过有质量的内容。 当所有人都能用agent海投简历时,简历这个载体就贬值了。未来能帮你拿到好机会的不是更好的简历模板,是有人愿意在关键时刻说一句:"这人我认识,靠谱。" 这个趋势会逆转吗?我觉得不会。以前说临床跟别的专业不一样,人身依附很严重,要读博、要拜山门。但现在各行各业都在临床化。
中文
30
77
519
102.2K
Leonard Chen
Leonard Chen@lunalunadic·
@garrytan Is the capability of building a large organization still valuable?
English
0
0
2
21
Garry Tan
Garry Tan@garrytan·
The unit of software production has changed from team-years to founder-days. Act accordingly.
English
232
254
3K
149.9K
Leonard Chen
Leonard Chen@lunalunadic·
@DIGITALYCHEE AGI「宗教」时代 Human is cheap, show me your AI God (bushi
中文
0
0
0
25