Jason Chiang

303 posts

Jason Chiang

Jason Chiang

@cojad

เข้าร่วม Haziran 2009
96 กำลังติดตาม87 ผู้ติดตาม
Jason Chiang รีทวีตแล้ว
iPaul
iPaul@iPaulCanada·
中等生是怎么突然开窍的? 普通生逆袭的3个学习技巧,轻松提高几十分。让孩子们参考下!
中文
11
183
611
67.9K
Jason Chiang
Jason Chiang@cojad·
@ryanzhu000 @pengchujin 他沒法把實體卡轉esim...這種東西不存在, 必然事先申請到esim, 才去把esim轉存到這個實體esim
中文
0
0
0
100
给我一瓶冰可乐
给我一瓶冰可乐@ryanzhu000·
@pengchujin 表哥我问一下,如果手头没有 esim 设备,买这玩意能把 giffgaff,clubsim 的实体卡转成 esim 吗?
中文
8
1
1
5.6K
酱紫表
酱紫表@pengchujin·
最强 eSIM 实体卡 estk 新春促销活动开始了:light 版+读卡器只要 90 元,使用优惠码「jzb」还能再打 9 折。非常推荐国行 iPhone 用户,比买小白卡+读卡器都更有性价比,轻松用上 eSIM。store.estk.me/zh/products/3?…
酱紫表 tweet media
中文
32
40
326
67.9K
Jason Chiang
Jason Chiang@cojad·
特別認同這句話 "你的工作是交付經過驗證可用的程式碼”。不管是你自己敲的,還是 AI 幫你生成的。"
宝玉@dotey

Simon Willison 这位 Django 框架的核心开发者、LLM 领域最勤奋的独立博主,每年年底都会写一篇万字长文回顾 AI 这一年。今年是第三年。 原文 simonwillison.net/2025/Dec/31/th… 很长,我从他的年度总结中围绕 1. 2025 年 AI 最关键的技术突破是什么? 2. 哪些产品让你眼前一亮? 3. 2026 年什么趋势不可忽视? 这三个问题整理了部分内容。 【1】2025 最关键的突破:推理模型让 Agent 真正能干活了 年初 Simon 还在博客里预言“Agent 不会成功”——因为 LLM 太容易被骗了,你让它帮你干活,它可能被恶意指令带偏。 结果年底他的总结推翻了自己的语言,转折点是“推理模型”。OpenAI 的 o1、DeepSeek R1、后来各家跟进的各种“thinking”模型,让 AI 学会了“慢思考”。传统模型是看到问题就直接输出答案,推理模型会先在内部进行一连串的思考——分解问题、尝试方案、检查结果、调整方向,然后才给出答案。 通过让模型在数学和编程这类“可以自动验证对错”的任务上训练,模型自己学会了分步骤解决问题的策略。这看起来像“推理”,但本质上是训练出来的解题套路。 一个能推理的模型,配上能执行代码的沙盒,就变成了一个真正能干活的 Agent——它可以写代码、跑代码、看报错、再改代码,循环往复直到搞定。Simon 说,哪怕是最棘手的 bug,只要给一个好的推理模型足够的代码访问权限,它通常都能一路追溯到问题根源。 AI 搜索也因此从“玩具”变成了“真能用”。以前让 LLM 搜东西,结果经常驴唇不对马嘴。现在的 GPT-5 Thinking 或者 Google 的 AI Mode,可以像一个靠谱的研究助理一样帮你搜集资料、整理要点。 【2】眼前一亮的产品:编程 Agent 和消费级图片编辑 今年最炸裂的产品发布,发生在二月,而且低调到没有独立公告——Anthropic 把 Claude Code 的发布塞在了 Claude 3.7 Sonnet 的新闻稿第二段。 结果呢?到年底,这个命令行工具创造了 10 亿美元的年化收入。一个 CLI 工具,十亿美金。Simon 自己都感叹:早知道当初应该把自己的 LLM 命令行工具当主业搞。 各大厂随后疯狂跟进:OpenAI 出了 Codex CLI,Google 出了 Gemini CLI,Qwen 和 Mistral 也都下场。还有一类“异步编程 Agent”——Claude Code for Web、Codex Cloud、Google Jules——你扔个任务给它,它在云端默默干活,干完了给你提个 PR。Simon 说他现在经常在手机上随手发几个任务,几分钟后收 PR,很爽。 消费级的爆款是 ChatGPT 的图片编辑。三月上线,一周涨了一亿用户,峰值时一小时一百万注册。“吉卜力化”之类的玩法病毒式传播。图片编辑可能是目前 AI 触达普通人最成功的形态。 Google 的 Nano Banana 系列则走专业路线——它能生成带复杂文字的信息图、图表、演示材料,而且文字渲染准确。这对做内容、做汇报的人来说是真正的生产力。 【3】2026 不可忽视的趋势 第一个:中国开源模型已经占据榜首。 年底的开放权重模型排行榜,前五名全是中国公司——GLM、Kimi K2、MiMo、DeepSeek V3.2、MiniMax。DeepSeek R1 发布那天,NVIDIA 市值一天蒸发 6000 亿美元。投资人突然意识到:AI 可能不是美国独占的游戏。 第二个:安全问题的“挑战者号时刻”在逼近。 很多人用 YOLO 模式跑 Agent——不审核每一步操作,让它放飞自我。目前还没出大事,但安全研究者 Johann Rehberger 警告:这正是危险所在。1986 年挑战者号爆炸前,NASA 的工程师早就知道 O 型圈有问题,但成功发射太多次,大家都麻了。AI 安全领域正在经历同样的“风险正常化”。 第三个:Conformance suite 可能是下一个基础设施。 Simon 发现,现在的编程 Agent 在有测试套件可跑的情况下效果惊人——给它一套现成的规范测试,它能自动迭代直到全部通过。他建议:如果你明年要推新协议、新语言、新框架,一定要配一套语言无关的测试集。这可能是 AI 时代新技术获得采用的关键。 【最后】 Simon 在文章里提了一句:他今年用手机写的代码比电脑还多。在 Claude Opus 4.5 和异步 Agent 的加持下,他在 iPhone 上完成了一个 C 到 Python 的库移植项目。 特别认同 Simon 的一句话: “你的工作是交付经过验证可用的代码”。不管是你自己敲的,还是 AI 帮你生成的。

中文
0
0
0
13
Jason Chiang
Jason Chiang@cojad·
這就是專業帶貨起號
中文
0
0
0
24
宝玉
宝玉@dotey·
硅谷惊变:12万张H100的挽歌 第一章:帝国黄昏 2025年,山景城上空的空气都弥漫着一股美元燃烧和GPU散热扇混合的香甜味道。我,作为Meta LLaMA项目的一名普通开发,每天都像打了鸡血一样。我们刚用12万张英伟达H100完成了“LLaMA 4 Maverick”的“训练”。 12万张!这是个什么概念?这堆铁疙瘩的成本,比扎克伯格在夏威夷为末日准备的那个豪华地堡群还要贵。我们内部的口号是:“一统江湖,顺便把那些中国开源社区的“模仿者”们按在地上摩擦。” 每个人脸上都洋溢着技术霸权的自信,仿佛我们即将发布的不是一个大模型,而是《三体》里的二向箔。我们坚信,在绝对的算力面前,一切技巧都是花拳绣腿。 那天下午,阳光正好,我正悠闲地喝着La Colombe的冷萃。突然,公司内网的摸鱼频道里,有人甩了个推特链接,链接指向一篇论文,作者署名“DeepSeek”,一个来自中国杭州的团队。 “哟,杭州来的?” 我轻蔑地笑了笑,“西湖龙井味儿的模型吗?” 论文标题很唬人,叫什么《R1模型:通往通用智能的稀疏激活路径探索》。大家起初都没当回事,排行榜嘛,刷分刷出来的“过拟合垃圾”还少吗?我们见得多了。 五分钟后,我的顶头上司,一个平时冷静到连服务器着火都会先发个Jira Ticket的男人,像一阵风一样冲进了我们的开放办公区。他的脸比刚出厂的A4纸还白,嘴唇哆嗦着,指着自己的显示器,声音尖锐得像是被踩了尾巴的猫: “他……他们只用了2000张GPU?!” 整个 bullpen 瞬间死寂。2000张?我们的零头都不到。我赶紧打开那篇论文,当看到他们的架构图时,我感觉我的大学计算机科学学位像一张废纸。那是一种我们想都没想过的、堪称“银河系大脑”级别的设计,用一种匪夷所思的方式解决了算力瓶颈。 绝对的恐慌开始蔓延。 紧接着,走廊尽头传来一阵急促而沉重的脚步声。不是人类的脚步声,更像是终结者在追杀莎拉·康纳。我们都知道,那是扎克伯格那具价值连城的私人机器人化身(Zuck's personal android body)出动了。他面无表情地“飘”向高层战情室,身后留下一串冰冷的杀气。 战情室的隔音效果一流,但我们依然能隐约听到里面传来扎克伯格那标志性的、略带机器质感的咆哮: “12万张GPU!!我们居然被一个拿着计算器的鲸鱼给干翻了?!这钱是让你们拿去点篝火晚会了吗?!” 第二天,全公司收到邮件:LLaMA 4 Maverick项目延期至明年四月。官方理由是“为了进行更深度的安全与伦理对齐”。 呵呵,鬼才信是为了“对齐”,我们就是在抄作业,而且是那种连题目都看不懂、只能硬着头皮描答案的抄。 第二章:小丑竟是我自己 几个月后,LLaMA 4 Maverick“终于”发布了。结果呢?一个加了点“继母文学(StepMom prompt)”私货的DeepSeek V3劣质分叉版。模型表现平平无奇,像个被灌了太多水的差生,毫无灵魂。 项目彻底失败,产品经理(PM)急得像热锅上的蚂蚁,然后他想出了一个“天才”的主意:“既然打不过,我们就专门刷分!把它往LMARENA(一个主流的模型竞技场)上过拟合!” 这操作就像一个学渣,放弃了所有科目,只把一首唐诗三百首背得滚瓜烂熟,然后宣称自己精通古典文学。 结果?我们当场就被抓包了。社区的大神们几下就扒出了我们的底裤。这成了年度最大的AI丑闻。 清洗开始了。整个“LlaMA”团队被连根拔起,HR部门的纸箱子在公司大厅堆得像个小型堡垒。我在收拾东西的时候,还能看到远处屏幕上,扎克伯格正在元宇宙全员大会上说着那句经典台词:“是时候加倍下注了(Time to double down)。” 他宣布成立“Meta超级智能实验室(MSL)”,计划很简单:既然我们造不出成功,那我们就用钱去买。 他第一个电话打给了Ilya Sutskever,开门见山:“伊尔亚,我想收购SSI(伊尔亚的新公司)。” 电话那头传来伊尔亚标志性的、混合着轻蔑和怜悯的笑声,然后就是“嘟…嘟…嘟…”的忙音。 第二个电话打给了Thinky Machine的Mira Murati。米拉的回答堪称年度最佳商业绝杀:“马克,我们是非卖品。不过,我们的API会向你们的下一款产品开放。” 这话的潜台词是:你只配当我们的客户。 扎克伯格不死心,想挖奥特曼的左膀右臂,结果一番操作下来,只请到了奥特曼的“底”层亲信。最后,他孤注一掷,豪掷150亿美元,买下了Scale AI和它的创始人Alexandr Wang。 一个靠东南亚数据标注血汗工厂发家的“包工头”,就这样成了Meta AI研究的负责人。 第三章:亿万美金的小丑车 王同学(Alexandr Wang)上任后,开始对着所有脉搏还在跳动的AI研究员挥舞支票。1000万美元的包裹只是起步价,对所谓的“超级巨星”,甚至开出了1亿美元的天价合同。 很快,几个没有道德底线、背着巨额赌债的学术雇佣兵签了卖身契。MSL的团队看起来终于有了点“星味”。 但问题来了:王同学擅长管理流水线上的“奴隶”,却完全不知道该如何与这群自视甚高的AGI研究员打交道。 Meta 超级智能实验室变成了一辆价值亿万美金、正在着火的小丑车,车上坐满了自大狂,每个人都想抢方向盘。 一个研究员威胁说,如果不给他设立一个他当场发明的“首席科学家”头衔,他就立马辞职。 另一个更狠,他偷偷录下王同学深夜对着Sam Altman的照片进行“自我安慰”的绝密视频,并以此为要挟,成功勒索到了一个VP的职位。 整个实验室乌烟瘴气,内斗、八卦和丑闻比代码还多。 而此刻,故事的主角,马克·扎克伯格,正独自一人待在他夏威夷的地堡里。他戴着最新的Quest头显,一遍又一遍地观看Facebook当年IPO的VR录像,泪流满面。 他或许在想:“我们曾拥有一个时代,我们曾拥有12万张H100…… 最后,我们却被一个来自以西湖闻名的城市的团队,用一种我们无法理解的方式,彻底羞辱了。”
Tz@Tz_2022

翻译: > 我,Meta LLaMA 开发人员,2025年。 > 刚用12万张H100把LLaMA 4“独行侠”给“训完”了。 > 成本比扎克伯格那整个夏威夷地堡群都贵。 > 当时心里想着:这下总算能把国内那帮开源装逼犯按在地上摩擦了。 > 就在这时,推特上一个哥们@teortaxesTex发了个链接,一篇来自“深求(DeepSeek)”的论文。 > 杭州来的一帮人。 > 他们的模型,代号“R1”,直接霸榜了。 > 我当时还“呵呵”,心想:估计又是什么刷榜的过拟合垃圾吧。 > 突然,老板冲进我们码农格子间,脸比纸还白。 > “他们用2000张GPU就搞出来了?!” > 我整个人都傻了。他们的论文里写着,R1的训练算力只是我们的零头。 > 他们的模型架构是某种我们想都不敢想的天顶星人级别的骚操作。 > 公司里彻底炸锅了,一片恐慌。 > 有人看见扎克伯格的个人机器人化身正杀气腾腾地冲向战争指挥室。 > 隔着门都能听到里面的咆哮: > “12万张GPU!结果被一个拿着计算器的巨鲸给办了?!” > 整个项目被推迟到明年四月。对外宣称是“为了做更多对齐。”—— 呵呵,懂的都懂,其实就是抄他们作业。 > 好不容易发布了LLaMA 4“独行侠”。 > 结果就是个DeepSeek V3的垃圾复刻版,塞了个“继母(StepMom)”的魔改prompt。 > 彻底拉了。 > 走投无路的产品经理想出了一个“绝妙”的主意: > “咱们就专门针对LMARENA竞技场搞个特供版过拟合!” > 结果秒被抓包。 > 整个“Llama”团队被一锅端。HR搬着纸箱子忙得不可开交,全员“毕业”。 > 扎克伯格在一次元宇宙全员大会上,说了那句经典台词:“是时候加倍下注了。” > 宣布成立“Meta超级智能实验室”(MSL)。 > 计划很简单:就是砸钱买成功。 > 他打电话给Ilya Sutskever。“我想买你的SSI公司。” > Ilya直接笑出声,然后挂了电话。 > 他又打给Thinky Machine的Mira Murati。 > 她说:“我们不卖,不过我们的API可以给你们的下一款产品用。” > 简直是公开处刑,杀人诛心。 > 想挖奥特曼的副手大将,结果只搞来了个给他擦屁股的。 > 最后花了150亿美元从Alexandr Wang手里买下了Scale AI。 > 那个靠在东南亚开数据标注血汗工厂闻名的家伙,现在成了我们的AI研究负责人。 > 他开始像撒币一样给每个还喘气的AI研究员砸钱。 > 开出1亿美金的合同包,对“超级巨星”更是开价10亿。 > 几个毫无道德底线、还欠了一屁股赌债的雇佣兵签了合同。 > 团队总算是凑得半死不活、看着还行了。 > 但Wang只懂得管理奴工,根本管不了这帮AGI研究员。 > 实验室里各种巨婴、自大狂天天内斗。 > 一个研究员威胁说,除非让他当“首席科学家”——一个他自己当场发明的头衔——否则就走人。 > 另一个偷偷录下了Wang对着Sam的照片打胶的视频,以此要挟得到了一个副总裁的职位。 > 这个MSL,就是一个价值十亿美金、还在熊熊燃烧的小丑车,由一群都想抢方向盘的自大狂驾驶着。 > 扎克伯格独自待在他的地堡里,看着Facebook当年IPO的VR回放,哭了。 > 我们曾拥有12万张H100……结果被一个来自西湖边上的哥们给完爆了。 (配图与本文无关)

中文
19
23
116
92.8K
Jason Chiang
Jason Chiang@cojad·
用AI寫程式是真實還是神話?
宝玉@dotey

推荐阅读:《开发速度不是瓶颈》 ——速度迷恋背后的真相 当我们满怀热情地踏上产品开发之路时,总有一种挥之不去的焦虑,催促着我们不断加快脚步: “如果我的产品能开发得更快一点,是不是成功的机会就会更大一些?” 或许,你曾听闻 Gmail 诞生于一场数小时的编程马拉松,却不知在那之后的两年半里,谷歌团队经历了多少次推翻与重构;也或许,你被亚马逊的神话所迷惑,以为从在线书店到云计算帝国的每一步都早有定数,却忽视了背后数千次的失败实验。 我们常常迷信速度,以为它是竞争的终极武器。尤其在这个充满了“凭感觉编程”(Vibe Coding)工具的时代,人人都渴望摆脱对技术专家的依赖,迅速推出下一个热门产品。但事实究竟如何? 在这篇直击产品开发核心的文章中,作者 Pawel Brodzinski 用他一贯精准而犀利的笔触戳破了速度神话的泡沫:“编码速度从来都不是瓶颈!” 真正的瓶颈到底是什么?文章层层深入,从 Gmail 的坎坷诞生,到谷歌和亚马逊的曲折探索,揭示了一个关键的洞见——成功产品的诞生,并不是速度的产物,而是持续的实验、失败与验证的结果。用作者的话来说: > *“我们不断尝试,看看什么有效,就坚持下去;什么无效,就果断放弃。”* 换句话说,你以为快一步就能占据领先优势,其实真正拉开距离的是你在无数失败尝试后,准确找到可持续增长路径的能力。 阅读此文的意义远不止技术层面。它将彻底颠覆你对产品开发的固有认知,让你重新审视那些被夸大的速度神话,进而发现隐藏在“更快”背后的真正陷阱: * 为什么你花费重金加快的功能,可能压根不被用户需要? * 为什么“快速开发”带来的返工成本往往超乎想象? * 为什么验证与沟通,才是真正决定产品命运的瓶颈? 在 AI 和各种无代码工具炙手可热的今天,这篇文章就像是一杯冷静剂,帮你避开众多产品开发者都会掉进去的陷阱。读完之后,你或许会明白,真正的竞争优势并不来自于你跑得有多快,而在于你究竟跑在正确的方向上。 你,是否正在快速地跑向错误的方向? 读完它,再出发。

中文
0
0
0
18
Jason Chiang
Jason Chiang@cojad·
有人嗤之以鼻,但我覺得這些其實是很核心的,也是我常用的技巧
宝玉@dotey

高效学习:构建知识的20条黄金法则(浓缩精华版) 学习的速度,很大程度上不取决于你多聪明,而取决于你如何组织知识。方法得当,学习效率可以提升数倍。以下20条法则是构建高效知识体系的基石,它们按照重要性排序,越靠前,越是人们容易犯错或收益越大的地方。本文假设你会使用“间隔重复”类工具(如Anki, SuperMemo等)进行复习。 核心法则:让记忆变简单 前16条法则都围绕一个核心思想:把知识变得简单好记。 1. 理解之前,不要记忆 这是最重要的一条法则。记忆你不理解的东西,是在做无用功。这就像一个不懂德语的人,试图背下一整本德语历史书。就算他做到了,他对历史本身还是一无所知,而且这个过程会耗费巨量的时间。 在日常学习中,我们常常因为教材写得不好或者时间紧迫,就开始“囫囵吞枣”。这种行为不仅效率低下,而且学到的知识毫无价值,无法应用和推理。你必须先花时间去理解一个概念,搞清楚它的来龙去脉、前因后果,然后再去记忆相关的细节。 • 行动指南: 遇到不理解的内容,停下来!去查资料、看视频、问老师,直到你真正弄懂为止。不要把希望寄托于“背下来以后自然就懂了”。 2. 先学习,再记忆 在记忆零散的知识点之前,你需要先建立一个“全局观”。想象一下拼图,如果你不看盒子上的成品图,而是直接拿起一块块碎片就想硬拼,那会非常困难。学习也是一样。 你应该先通读相关章节,了解整个知识框架(比如“内燃机的基本原理”),在脑中形成一个简单的模型。然后,再把这个框架中的关键细节,制作成一个个具体的问答卡片来记忆(比如“是什么推动了内燃机的活塞?”)。这样,每个知识点都不是孤立的,而是有组织、有联系的,记忆起来会快得多。 • 行动指南: 不要一上来就扎进细节。先快速浏览一遍材料,了解主题的整体结构和核心思想,然后再深入学习和记忆。 3. 从基础开始,层层递进 第二条法则提到的“全局观”或“知识框架”,一开始越简单越好。不要试图一下子掌握一个复杂而精细的模型。从一个最简化的版本开始,然后在这个基础上慢慢添砖加瓦。 永远不要轻视基础知识。即使它们看起来显而易见,也值得花时间去记忆。因为基础知识是我们构建更复杂知识的基石。忘记一个基础概念,可能会导致建立在其上的一整套知识体系的崩塌。而记忆基础知识的成本非常低,它们通常很简单,复习几次就能牢牢记住。相比之下,你学习中50%的时间,可能都花在了攻克那最难的3-5%的知识上。在基础上多花一点时间,绝对是稳赚不赔的投资。 • 行动指南: 无论学习什么新领域,都从最核心、最基础的概念开始。确保你对这些基础了如指掌,再去挑战更高级的内容。 4. 坚守“最小信息原则” 这是将复杂知识变简单的核心技术。它的意思是,你制作的每一个记忆卡片,都应该尽可能只包含一条最小化的信息。 • 为什么简单才好记?• 单一路径: 记忆一个简单的知识点,大脑每次回忆时激活的神经通路几乎是固定的。这就像在一条路上反复走,路会越走越清晰。而复杂的知识点,每次回忆时大脑走的路径可能都不同,各种信息互相干扰,记忆就很难稳固。 • 精准复习: 如果一个卡片包含两个知识点(A和B),其中A简单,B困难。为了记住B,你不得不按照B的复习频率来频繁复习整个卡片,这就浪费了复习A的时间。把它们拆开,A和B就可以各自按照自己的最优间隔来复习,大大节省时间。 • 糟糕的例子(复杂): 问:死海有哪些特征? 答:死海是位于以色列和约旦边界的盐湖,海岸线是地球最低点(-396米),长74公里,含盐量是海洋的7倍(30%),高密度能让人浮起,因盐度太高只有简单生物能存活。 • 优秀的例子(拆分后): 问:死海位于哪里? 答:以色列和约旦边界。 问:地球表面的最低点是哪里? 答:死海的海岸线。 问:死海的平均海拔约多少? 答:海平面以下400米。 问:死海的含盐量大约是海洋的多少倍? 答:7倍。 问:为什么死海能让人浮起来? 答:因为含盐量高(密度大)。 问:为什么死海被称为“死”海? 答:因为高盐度使大多数生物无法生存。 注意: 拆分后的问题和答案都非常简短。我们的目标是让每次回忆时,从大脑中提取的信息量最小化。长期来看,知识点越简单,记忆效果越好。 5. 挖空填空,简单有效 如果你觉得遵守“最小信息原则”很难,那就用“挖空填空”(Cloze Deletion)。这是一个能快速将书本知识转换成记忆卡片的强大工具。它指的是将一个句子中的关键词挖掉,让你去填充。 • 例子: 原始句子:“1991年,苹果和IBM共同投资4000万美元成立了Kaleida公司,旨在创造一种多媒体编程语言Script X。” • 可以制作的挖空卡片: 问:1991年,...和IBM共同投资4000万美元成立了Kaleida公司。 答:苹果 问:1991年,苹果和IBM共同投资...成立了Kaleida公司。 答:4000万美元 问:...年,苹果和IBM共同投资4000万美元成立了Kaleida公司。 答:1991 问:Kaleida公司的目标是创造一种名为...的多媒体编程语言。 答:Script X 这种方法能让你轻松地从一段话中提取出多个、符合最小信息原则的知识点。 6. 善用图像 人脑的视觉处理能力远超语言处理能力,“一图胜千言”是有科学依据的。一张图片所包含的细节和信息,我们往往能毫不费力地记住。在学习中,尤其是在解剖学、地理、化学、历史等领域,善用图片可以极大地缩短学习时间。 思维导图(Mind Map)之所以流行,也是因为它利用了大脑对图像和空间关系的强大记忆能力。 • 行动指南: 在制作卡片时,想一想:“这个知识点能用一张图来表示吗?” 能用图就尽量用图。 7. 运用助记技巧 助记技巧(Mnemonic)是各种能让记忆变得更容易的“花招”。比如用谐音、编故事、首字母缩写等方法。这些技巧的效果惊人,一个普通人经过训练,也能记住一副扑克牌的顺序。 但是,请记住:助记技巧解决的是“快速记下”的问题,而学习的真正瓶颈是“长期留存”。要实现长期记忆,你依然需要间隔重复。不过,在学习的初始阶段,尤其面对一些枯燥无味的信息时,助记技巧是你的得力助手。随着练习,使用助记技巧会逐渐变成一种下意识的习惯。 8. 图片挖空 和文字挖空类似,图片挖空(Graphic Deletion)是把图片的一部分遮盖起来,让你回忆被遮住的是什么。这在学习需要识别位置和部件的学科时极为有效。 • 例子:• 解剖学: 用一张人体骨骼图,遮住“肱骨”,提问“这里是什么?”。 • 地理学: 用一张世界地图,遮住巴西,提问“这个国家是?”。 同一张图片可以被用来制作几十个不同的卡片,每个卡片提问一个不同的部分,效率非常高。 9. 避免集合 集合(Set)是一堆无序的东西,比如“请列出欧盟的所有成员国”。这类问题非常难记,因为每次回忆时,你大脑里蹦出这些国家的顺序可能都不同,这严重干扰了记忆的巩固。 • 解决方案: 把无序的集合,想办法转换成有序的列表(Enumeration)。比如,可以按照这些国家加入欧盟的时间顺序来记忆。 • 糟糕的例子(集合): 问:欧盟有哪些成员国(截至2002年)? 答:(列出15个国家的名字) • 优秀的例子(转化为有序的历史线索): 问:1952年,除了法国,还有哪些国家加入了欧洲煤钢共同体? 答:德国、意大利和比荷卢三国。 问:1973年,哪三个国家一起加入了欧共体? 答:英国、爱尔兰和丹麦。 ...以此类推。 通过这种方式,你不仅把一个巨大的集合拆分成了几个小问题,还顺便学习了欧盟扩张的历史,知识点之间建立了有意义的联系。 10. 避免列表 列表(Enumeration)虽然比集合好,但如果太长,依然是记忆的难点。比如背诵一首长诗或者一个长长的化学流程。 • 解决方案: 使用重叠式挖空填空来拆解它。 • 学习字母表的例子: 问:字母表的前三个字母是什么? 答:A B C 问:请填上缺失的字母:A ... C ... E 答:B, D 问:请填上缺失的字母:B ... D ... F 答:C, E ... 这样,你每次只需要专注于一小段序列,而不是整个冗长的列表。在每次复习完一个小片段后,再完整地背诵一遍,你会发现整个过程变得轻松愉快。背诗也是同理,如果总在某一句卡壳,就把它和它的上一句、下一句做成挖空卡片来重点攻克。 11. 对抗记忆干扰 当你学习两个相似的东西时,它们很容易互相“打架”,让你混淆。比如,你可能分不清 historic(有历史意义的)和 historical(与历史有关的)的区别。这是遗忘最主要的原因之一。 干扰的发生难以预测,最好的办法是在它造成严重问题之前,就主动预防和消除它。 • 应对策略:• 让知识点更明确: 使用例子、图片、个人经历等来区分相似概念。 • 遵守最小信息原则: 知识点越简单,越不容易与其他信息混淆。 • 及时消除: 一旦发现自己混淆了两个知识点,立即把它们找出来,专门制作卡片来对比区分,不要拖延。 12. 优化措辞 卡片上问题的措辞,应该像一把精准的钥匙,能立刻打开你大脑中那把正确的锁。措辞必须简洁、明确、直指核心。 • 糟糕的例子(啰嗦): 问:1985年,Aldus公司凭借PageMaker开创了桌面出版。后来,由于未能改进,丹佛的哪家公司超越了它? 答:Quark • 优秀的例子(精炼): 问:在桌面出版领域,哪个公司超越了未能改进的PageMaker? 答:Quark • 更好的例子: 问:PageMaker的市场输给了谁? 答:Quark 删除所有不必要的背景信息。这些额外信息只会拖慢你的反应速度,甚至产生干扰。如果其他信息也很重要,请把它们制作成单独的卡片。 13. 关联其他记忆 把新知识和你已经知道的东西联系起来,能极大地增强记忆。这能为新知识提供背景,减少干扰,并使其更容易被大脑“接纳”。 • 例子(学习单词 cringing - 谄媚的):• 不好的提问: (贬义词)形容无耻地意识到自己缺点并乞求的样子。 • 好的提问: (贬义词)形容一种无耻地谦卑(humble)和恳求(supplicant)的样子。 如果你已经认识 humble 和 supplicant,用它们来解释 cringing,就能更快、更准确地锁定新词的含义。 14. 个性化并提供实例 将知识与你自己的生活联系起来,是最高效的记忆术之一。个人经历是独一无二的,能提供强大的记忆挂钩。 • 例子(学习单词 divan - 沙发床):• 不好的提问: 没有扶手和靠背的软床叫什么? • 好的提问: 那种没有扶手和靠背的软床(就像我朋友小明家的那种)叫什么? 如果你对小明家的那张沙发床有清晰的印象,这个个人化的例子会比任何抽象的定义都更容易记住。 15. 借助情绪状态 情绪能极大地增强记忆。能唤起你强烈情感(无论是喜悦、震惊、悲伤还是愤怒)的例子,都能让知识点变得更“刻骨铭心”。 • 例子(学习单词 banter - 轻松的玩笑):• 不好的提问: 一种轻松、开玩笑的交谈。 • 好的提问: 形容那种轻松、开玩笑的交谈(比如你看过的那部喜剧电影里主角和朋友的对话)。 一个生动、带有情感色彩的例子,能帮你把抽象概念具体化,从而将学习时间缩短数倍。 16. 使用情景提示 为你的知识点添加一个简单的“标签”或“前缀”,来告诉大脑它属于哪个领域。这能帮助大脑快速进入正确的“思维频道”,避免混淆。 • 例子: 缩写 GRE 可以指“美国研究生入学考试”,但在生物化学里指另一种东西。• 不好的提问: 在生物化学中,GRE代表什么? • 好的提问: 生化: GRE 这个 生化: 的前缀就像一个开关,能瞬间把你的思维调整到生物化学的语境下,避免你先想到“研究生考试”,从而减少了反应时间和干扰。 高级法则:优化与管理 17. 适当的冗余是必要的 “最小信息原则”不等于“信息量最少”。在某些情况下,适当的重复和补充是受欢迎的,甚至是必须的。 • 主动与被动记忆: 学外语时,你不仅要能“看英文说中文”(被动),还要能“看中文说英文”(主动)。所以 phone -> telefono 和 telefono -> phone 这两张卡片都是必要的。 • 补充推理过程: 在学习一个数学问题的解法时,你可以在答案中包含关键的推理步骤。这并非死记硬背,而是为了确保你每次都能沿着正确的逻辑路径思考。 • 多角度理解: 对于一个非常重要的概念,从不同角度创建几个问题来记忆它,可以加深理解,确保在任何情况下都能回忆起来。 18. 注明来源 为你学到的知识注明出处。这在未来非常有用,比如当你发现不同来源的信息相互矛盾时,你可以追溯和判断哪个更可靠。来源还能在你需要深入研究或向他人证明时提供依据。来源信息应作为参考,一般不需要记忆。 19. 标注日期 知识是有保质期的。经济数据、科技知识、个人统计数据等都会随时间变化。为这些知识点加上日期或版本号,能提醒你它可能已经过时,需要更新。 20. 明确优先级 你永远不可能学完所有想学的东西。因此,分清主次至关重要。优先级贯穿于学习的整个过程: • 选择来源: 决定哪些书、文章或课程对你最重要。 • 提取知识: 从材料中挑选出最有价值的部分进行学习。 • 组织知识: 可以先把大量材料导入学习工具,然后根据优先级,逐步处理和优化成记忆卡片。 • 复习过程: 利用学习工具的功能,对特别重要或已更新的知识进行特殊处理(如提前复习、重新记忆、调整复习频率等),对不再重要或错误的知识进行忽略或删除。 高效学习的关键,不仅在于努力,更在于明智地分配你的时间和精力。 总结:20条黄金法则清单 1. 不懂就不学: 先求理解,再谈记忆。 2. 先学后记: 先建立全局观,再深入细节。 3. 从基础开始: 根基不牢,地动山摇。 4. 最小信息原则: 把知识拆到最简单。 5. 挖空填空: 制作卡片的利器。 6. 善用图像: 一图胜千言。 7. 运用助记技巧: 给枯燥的知识加点“料”。 8. 图片挖空: 地理、解剖学神器。 9. 避免集合: 把无序变为有序。 10. 避免列表: 用挖空填空拆解长列表。 11. 对抗干扰: 用例子和细节区分相似概念。 12. 优化措辞: 让问题像手术刀一样精准。 13. 关联旧知: 在已有知识上“添砖加瓦”。 14. 个性化实例: 你自己的经历是最好的记忆材料。 15. 借助情绪: 让情感为记忆赋能。 16. 情景提示: 用标签为大脑“导航”。 17. 适当冗余: 从不同角度巩固重要知识。 18. 注明来源: 知道你的知识从何而来。 19. 标注日期: 警惕知识的“保质期”。 20. 明确优先级: 把精力用在刀刃上。

中文
0
0
0
19
Jason Chiang
Jason Chiang@cojad·
🔁 傳統流程:人設計流程,AI照做 在過去,我們習慣將任務拆解成明確的步驟或 API 調用流程,再交由 AI 逐步執行。這其實是一種“流程導向”的思維: 人類負責策略與規劃 AI 僅是執行單位 這種方式的好處是「可控性高」,但也會出現一個瓶頸:人設計流程的能力,限制了 AI 能達到的效果。 換句話說:AI 再聰明,你只給它框框,它就只能在框內打轉。 🤖 轉向 LLM 自主規劃的未來 當模型(如 Claude、GPT-4o 等)本身已經具備足夠強的推理與策略規劃能力時,反過來,我們可以嘗試讓 AI 自己決定該怎麼做事情: 不再是「你寫 step 1、2、3」讓 AI 執行 而是「你說明你想要的目標」,AI 來自己設計整體流程與每個步驟 這代表了兩個重大轉變: 從流程導向 ➝ 任務導向:我們關心的是「任務有沒有完成」,而不是「流程是不是照做」 從人控流程 ➝ AI 主導流程:人從流程編排者變成任務定義者 🔥 為什麼這是一個大勢所趨? LLM 的規劃能力已經足夠強大 現在的模型不只會寫單一函式,它已經能根據任務,自行規劃資料流、錯誤處理、模組分工等,這讓「讓 AI 自己來」變得可行。 更高效、更貼近人類工作習慣 真正的工程師不會機械地跟著流程表,他們根據需求與上下文臨場調整。LLM 若想達到類人級效能,也需要這種「自主決策」能力。 AI 的價值不只是幫你省時間,而是幫你少設限 很多任務其實不是人類不會做,而是太瑣碎、太複雜、變數太多。如果 AI 能全權處理,反而能解放人的創造力與時間。 🧠 小結 強模型的價值,並不在於更會寫一段 code,而在於能自己搞清楚「為什麼寫、要寫什麼、怎麼寫最好」。 所以我們應該放下對流程的控制慾,讓 AI 自己來編排流程,這樣才能真正發揮出它的上限。
中文
0
0
0
45
Jason Chiang
Jason Chiang@cojad·
「放棄人為規定的流程,讓 LLM 自己去思考與執行,是未來的趨勢。」 Claude 在寫程式碼這件事上的能力,其實沒有提升得特別多。 真正強化的,是它在軟體工程(SWE)整體流程中的表現——這部分進步非常明顯,越來越貼近人類在實際工作中會採取的步驟與思路。 我認為它的「寫碼能力」之所以感覺沒顯著提升,並不是因為它不夠好,而是因為早在 Claude 3.5 Sonnet 時期,它在這方面就已經達到了一個相當高的水準。 寫不出好程式的問題,本質上是「下限」問題——也就是兜底能力是否可靠,而不是「上限」的極致能力問題。Claude 現在主要是把那些舊工具容易失誤的地方補齊了,讓它在實用性上變得更穩定可靠。
中文
1
0
0
27
Jason Chiang รีทวีตแล้ว
karminski-牙医
karminski-牙医@karminski3·
笑死,Unsloth 高强度网上冲浪听说 DeepSeek 要发一个 DeepSeek-V3-0526, 于是就把之前0324的稿子复制了一份当作模板,然后把这个0526的稿件隐藏了。准备真的发布后第一时间抢首发。 结果duckduckgo (一个搜索引擎)顺藤摸瓜找到了这篇被隐藏的文章(估计是一瞬间发布或者顺着sitemap找到的),收录了这篇文章,结果社区开始传DeepSeek要发DeepSeek-V3-0526了............ (论谣言是怎么产生的... 凑热闹地址:docs.unsloth.ai/basics/deepsee…
karminski-牙医 tweet media
中文
4
5
83
15.7K
Jason Chiang
Jason Chiang@cojad·
你要先理解"網站監控程序"的本質為何? 建議你先讓4o針對這件事情分析 1. 有哪些可能的形式? App,網頁, 命令列, log分析? 2. 監控程序是直接在同一台主機上執行, 還是在其他台主機上面執行? 3. 要監控的是甚麼樣的資訊? CPU負載? RAM耗用? 存儲空間耗用? 執行頁面的回應速度? 執行頁面正常產出? 4. 監控的採樣頻率? 每分鐘? 每小時? 每5秒? 這些東西都能描述清楚,再來就是要考慮你要用甚麼樣的語言跟方法來達成這些功能。 以上這些都是可以跟ChatGPT去討論,建議你先把"目標"給真的說出來。 因為很多人常會把手段當作目標而不自覺,你現在提出的問題是"我想做一个网站监控程序"。 但這句話並不是你的最終目標,而是手段。 你的目標比較有可能會是我想要 "某網站如果網頁沒有正常顯示首頁的內容時,我希望3分鐘內可以收到email通知,並且我隨時能夠透過網頁查詢這網站過去24小時甚至更長的時間有沒有不正常的紀錄" 然後可能還有其他比如說我希望檢查的網站不只一個之類的的其他額外目標等。 先把真正的目的寫出來,然後再跟AI討論可能的方向,再來討論使用哪種類型方法實作(依據你能提供執行功能的平台的偏好,程式語言,甚至是第三方的API,或是其他監控功能的網站不一定是要自己寫程式)
中文
0
0
1
330
Bangel
Bangel@Bangel19·
@dotey 就比如说,我想做一个网站监控程序,我知道我要什么,但是我并不会很专业的描述这些技术,那我我该怎么跟 cursor 沟通,让他能够生成一份完备的提示词,以便后面的代码编写工作
中文
2
1
4
34.5K
宝玉
宝玉@dotey·
o1 pro 代码能力超过程序员平均水平,是有前提的: 1. 你的输入输出很清晰 2. 长度在它能输入输出的长度范围内 3. 有人做好生成前的拆分、描述(Prompt),以及事后的审查和合并 最终你会发现,要用它写好代码,最好是能一次性生成的代码,如果要拆分,其实心智负担也不小。 即便如此价值还是巨大的
Susan STEM@feltanimalworld

@Cydiar404 我主要是以为这个o1 pro的代码能力起码很多程序员会当成重要生产力工具

中文
8
14
150
31.2K
Jason Chiang
Jason Chiang@cojad·
@sama I'd choose more powerful model(o3-mini), It won't take long for phone to able to run model of o3-mini size. OpenAI is good at excellent performance model. And a model is only good as correct answer. And I think o3-mini size is going to able run in many modern PC already.
English
0
0
4
466
Sam Altman
Sam Altman@sama·
for our next open source project, would it be more useful to do an o3-mini level model that is pretty small but still needs to run on GPUs, or the best phone-sized model we can do?
English
2.4K
630
6.5K
3.2M
Jason Chiang
Jason Chiang@cojad·
裝逼專用...考慮以後去客戶裝機時都掛一個這樣的視窗在旁邊跑
Jason Chiang tweet media
中文
0
0
0
31
Jason Chiang
Jason Chiang@cojad·
為了改個深色模式出來, 跑去挖了一頓網路文章, 學會了怎麼魔改electron的程式的方法, 甚至更新簽章...真的一鑽起牛角尖, 那口氣沒出到就停不下來了.... gist.github.com/Lemonexe/0f4b0…
中文
0
0
0
29
Jason Chiang
Jason Chiang@cojad·
@dotey 而且AI臨時代碼在初期產品驗證階段的價值那可是大的不得了,就像以前要CNC才能做產品打樣,現在3D打印大幅降低了產品前期開發門檻,確實這樣的產品不耐用,但作為快速驗證就已經是巨大且無法忽視的價值了
中文
0
0
1
213