Uncle J

11.6K posts

Uncle J banner
Uncle J

Uncle J

@UncleJAI

I build things people use without reading manuals. 6 products shipped with AI. Fox, not hedgehog. Admin: AI-Powered Indie Hackers https://t.co/g9mzxl1R6Z

63.403167, -19.047222 가입일 Şubat 2011
2.9K 팔로잉7.2K 팔로워
Uncle J 리트윗함
Ryan Mather
Ryan Mather@Flomerboy·
🧵 My tips for getting the best results out of Claude Design! I’m on the verticals team at Anthropic which means I serve 7 different products. Claude Design makes it possible! 1. Set up your design system and your core screens. An hour of setup and refinement here is worth it
Claude@claudeai

Introducing Claude Design by Anthropic Labs: make prototypes, slides, and one-pagers by talking to Claude. Powered by Claude Opus 4.7, our most capable vision model. Available in research preview on the Pro, Max, Team, and Enterprise plans, rolling out throughout the day.

English
165
625
8.3K
1.3M
Uncle J
Uncle J@UncleJAI·
Opus4.7 来了
Uncle J tweet media
中文
0
0
0
155
Uncle J 리트윗함
宝玉
宝玉@dotey·
今天刷到这篇文章几次,说点不一样的。与其说 AI First,不如说软件工程 First。 这篇文章看着在讲 AI,底下全是软件工程。 抛开后面讲组织和人的部分,原文前半段的重点简单总结一下: AI 时代,人成了瓶颈。PM 花几周做需求,AI 两小时就能实现,PM 成了瓶颈。QA 测三天,AI 写代码只要两小时,QA 成了瓶颈。团队 25 个人,对手几百人,人力也是瓶颈。 怎么办?把人从链条里拿掉。AI 写代码、AI 审查代码、AI 跑测试、AI 部署上线、AI 监控线上状态,出了问题自动回滚。每天定时扫描日志,自动发现问题、分配任务、跟踪修复。整条流水线跑起来,人只需要在关键节点做判断。 至于文中提到的统一代码库,锦上添花,和 AI First 关系不大。有当然更好,没有也有很多替代方案。 整套方案听下来,逻辑自洽,效果也漂亮:一天部署好几次,功能当天上当天撤,数据说了算。 但先别急着照搬,先对照自己的情况想几件事: 第一,自动化测试。AI 改完代码,你得有办法确认它没搞崩别的功能。测试覆盖不够的话,每次 AI 提交代码你都得人工回归一遍,那速度根本快不起来。 第二,CI/CD 流程。从提交代码到部署上线,中间的测试、审查、发布、回滚,是不是全自动跑通了?这条流水线不通,AI 写得再快,代码也堆在那儿等人手动处理。 第三,A/B 测试和线上监控。新功能上线之后效果好不好,得有数据说话,效果不好得能随时关掉。没有这套机制,AI 一天产出五个功能,你都不知道哪个该留哪个该砍。 第四,任务管理。任务得拆到合适的粒度,生命周期得跟踪得住。一个大而模糊的任务丢给 AI,现在的能力还啃不动。多个 Agent 同时干活的时候,谁做哪个、哪个优先、做到什么程度,这些都得有地方管。 第五,系统架构。架构太乱或者压根没有架构的代码,AI 维护起来跟人一样头疼。上下文塞满了还是搞不清边界在哪,改一处崩三处。 这几条里如果有做不到的,就得靠人去补。补不上,AI First 就只是一句口号。 但假设你全做到了,就能 AI First 了? 还是不行。这套玩法只适合一部分场景。 什么场景适合?后端逻辑为主、界面不复杂的产品,比如 API 服务、数据处理平台、内部工具。功能好不好,跑一下数据就知道,不需要人去盯着每个像素。原文里的就是个 Agent 平台,本质上是后端驱动的产品,可以用这套打法。 再比如早期产品快速试错,功能上了不行就撤,用户预期本来就没那么高,AI 的速度优势能充分发挥。 但很多场景玩不转。 比如 UI 密集的产品。自媒体天天喊前端已死,但你让 AI 做个复杂界面试试,各种易用性问题、交互细节、视觉还原,它搞不定的。否则马斯克靠 AI 早就改了不知道改版 X 多少次了。 比如对功能质量敏感的产品。Anthropic 和 OpenAI 不知道 AI First 吗?他们敢在 Claude Code 和 Codex 上这么搞吗?让 AI 全自动迭代自家的核心产品,用户不骂死才怪。 再比如安全性要求高的场景,银行系统、在线交易平台,AI 代码出个差错,那可不是回滚能解决的。 AI First 的方向没有错,它代表的是一种意识的转变:每做一个决策的时候,想一想这件事能不能让 AI 来做,如果不能,缺什么条件,怎么把条件补上。 但这种意识要落地,靠的不仅是买几个 AI 工具的订阅,还需要把基础搭好。测试、CI/CD、监控、架构、任务管理,这些做扎实了,AI 的能力自然能释放出来。做不好,加再多 AI 也是在沙子上盖楼。 从这个角度看,AI First 的终点未必是让 AI 干所有的活,而是借着这股力量,把你一直想做但没动力做的工程改进,真正推动起来。 仰望星空是好的,但也还要脚踏实地。
Peter Pang@intuitiveml

x.com/i/article/2043…

中文
67
155
883
203.5K
Uncle J
Uncle J@UncleJAI·
@Karadokuy @wangray 同意,但这里有个分界点: 👉 人是在做“维护”,还是在做“规则设计” 前者是成本,后者才是系统能力。 一旦进入规模化,单纯靠人是顶不住的。
中文
0
0
0
42
Uncle J
Uncle J@UncleJAI·
@AlexFinn @alexwg @devontriplett21 The real gap in AI isn’t access — it’s structure. Everyone can touch powerful models now, but very few can turn that into a repeatable system. That’s why the value still concentrates.
English
0
0
0
40
Alex Finn
Alex Finn@AlexFinn·
Biggest announcement of my life: I have raised pre-seed funding from 021T, @alexwg , and @devontriplett21 to build an AI agent that will change the world The biggest issue with AI is it is creating incredible value but for only a small group of people Most people hate AI and don't use it I have built Henry Intelligent Machines (HIM) to solve this HIM is a personal swarm of AI agents autonomously creating economic value for you 24/7 Right now as we speak HIM is collecting data across thousands of websites autonomously 24/7/365 They're hunting for challenges to solve at all times When you use Henry, he will deeply research you and get to know you. Then based on the thousands of opportunities it has in its database, find the value generating opportunities that most closely match your interests, skills, assets, and expertise Henry and its swarm will then proceed to build those micro-businesses out for you You will have complete control over the swarm. Reviewing and approving all work. Editing where you find appropriate. You give Henry a budget, then it hunts and autonomously creates value Say you have an expertise in vibe coding tools and Henry discovers there's no vibe coding guides on Gumroad. It will take your expertise, build drafts for a guide, run it by you, post with your approval, then use your budget to get customers Say you're into AI and speak Portuguese Henry will go through the Portuguese AI education market, see there are no educational products in that language, then create a full AI educational business in Portuguese Most people hate AI. This is because they get 0 value from it, see their friends getting laid off, and become scared HIM is the antidote to this. HIM allows ANYONE to get value from AI. HIM will allow anyone to get access to the trillions of dollars of value that are up for grabs in the new AI world. To ensure Henry creates value and not slop, this will be an extremely slow rollout We will be letting people into HIM 1 by 1. Working with them hands on to ensure Henry only builds real value for them, then expanding from there. If you'd like to be one of the early users of Henry, feel free to sign up at the link below. Forward.
English
406
93
2K
185.1K
Uncle J
Uncle J@UncleJAI·
@axiaisacat 下一阶段确实不是“谁能调更多 tool”。 但也不是单纯“会学习会记忆”。 本质是在比: 👉 谁能形成稳定的“任务闭环” 否则 learning 只是在积累噪音。
中文
1
0
1
338
axiaisacat
axiaisacat@axiaisacat·
OpenClaw 已经过时了。 如果你现在还在用 OpenClaw,说明你可能还没看到 Hermes Agent。 很多人对 agent 的理解,还停留在“会调工具”“会自动执行”这一层。 但这套东西很快就要卷废了。 下一阶段比的根本不是谁能多 call 几个 tool, 而是谁的 agent 会学习、会记忆、会随着任务一起成长。 Hermes Agent 真正有意思的地方就在这: 会从经验里沉淀 skill 会在使用中自我改进 会搜索过去的对话和任务 会逐渐建立对你的理解 还能跨 Telegram、Discord、Slack、CLI 持续工作 说白了, 别的 agent 还在想办法“替你执行”, Hermes 已经在试图变成“你的长期数字分身”了。 所以不是 OpenClaw 不行, 而是这条路线已经开始落后了。 接下来真正值得看的, 不是哪个 agent 更像 demo, 而是哪个 agent 越用越强。 项目:👇
中文
26
33
204
32.7K
Uncle J
Uncle J@UncleJAI·
@yanhua1010 这一套其实可以看成是“知识的编译流程”: raw → compile → runtime 关键不在结构,而在—— 👉 compile 的规则是否稳定 否则每次 query 都是在重新造世界。
中文
0
0
1
32
Yanhua
Yanhua@yanhua1010·
用 Obsidian + Claude 搭个人知识库,分享这套架构最核心的实践: 核心思路:把笔记库当代码仓库来"编译" 一、三层目录,一条铁律: 1⃣原料/ ← 只读,Claude 不可修改 2⃣摘要/ ← Claude 结构化编译产物 3⃣沉淀/ ← 每次 Query 的高质量回答落文件 原始素材永远不变。知识是编译出来的,不是堆出来的。 二、让 Claude 高效工作的两个元文件: 1⃣CLAUDE.md:放在 vault 根目录,告诉 Claude 你是谁、目录规范、工作流要求。这是控制 AI 行为的"最高宪法",每次会话必读。 2⃣index.md:全局目录,每篇笔记加一行 TLDR。Claude 检索时先扫 index,再决定是否深读全文,大幅节省 Token。 3⃣log.md:只增不减的操作日志,用统一前缀:## ingest | 标题。方便追踪,也让 Claude 了解最新动态。 三、日常工作流的三个关键动作 1⃣Ingest:每次只处理一篇。丢进来,先和 Claude 讨论核心 takeaway,再让它写摘要、更新索引。 2⃣Query:好的回答不能消失在聊天框里。每次问出有价值的答案,直接存为 沉淀/ 下的文件,让探索结果累积。 3⃣Lint:定期让 Claude 做健康检查,矛盾内容不覆盖,标注 ⚠️ 矛盾 等你确认。 四、防腐化的底线规则 1. 重要断言必须有来源链接。 2. 新旧冲突时,报 diff,不默默覆盖。 3. 区分"原文事实"和"推论"。 把这些写进 CLAUDE.md,知识库才不会在几个月后变成 AI 幻觉的堆积。
Yanhua tweet media
Yanhua@yanhua1010

x.com/i/article/2039…

中文
8
131
506
57.2K
Uncle J
Uncle J@UncleJAI·
@servasyy_ai Hermes 这类系统,真正的分水岭其实不是“记忆强不强”。 而是: 👉 有没有一套稳定的“约束 + 调度机制” 不然就是一个会自我强化的随机系统。
中文
0
0
1
83
huangserva
huangserva@servasyy_ai·
绝大多数的人的OpenClaw可以放弃了 根本不用考虑,直接选择Hermes Agent 核心就是几点: 1. 记忆系统远远强于原生OpenClaw 2. 学习闭环,自动迭代能力强(自己创建/优化skill,定期 nudge 保存) 3. 部署能力灵活 其实这些就是从Harness架构核心要求
huangserva tweet media
中文
46
74
418
85.4K
Uncle J
Uncle J@UncleJAI·
@dotey LLM Wiki 其实不是“技术问题”,而是一个“信息形态”的变化。 从 raw → summary → wiki,本质是在做“可读性压缩”。
中文
0
0
0
53
宝玉
宝玉@dotey·
因为太多人写过 Andrej Karpathy 的 LLM Wiki,我就没写,其实在我心中比 Auto Research 更有创意,Auto Research 本身不新鲜,早就有相关理论,但 LLM WIKI 倒是让我眼前一亮。 我们每个人或多或少都在做信息收集的工作,比如 X 上看到好的文章点赞或者收藏,看到一篇好的技术文章添加到浏览器收藏夹,微信上有人分享了篇好文章点收藏,还有更多的是惊鸿一瞥再也找不到然后想起来根据关键词去 Google …… 其实绝大部分收藏后再也不会打开,一方面是因为收藏即看过的心理暗示,一方面是因为散落各地找起来太麻烦。 所以第一个问题其实是中心化的信息收集整理,把散落在各处的信息汇聚在一处。 已经有很多工具了,我自己也有写小工具/agent 帮助收集信息,因为我除了收集外还有一些二次加工的需要,比如翻译、总结。 但还存在问题就是信息是点状的,最多人工打个tag、加个分类。 但 Karpathy 的更进一步,让 LLM 帮你把信息整理成结构化的。这一步是我之前没考虑过的,也没见过有其他产品做的。 这里面的差别在于以前整理是要人做的,你自己建分类,自己打 tag,对于勤劳的爱整理的人当然没问题,但对于我这种懒人来说是不会做的,所以找信息是比较麻烦的。 但如果这种事情让 Agent 做,那就省事多了,毕竟它不知疲倦,而且极擅长处理内容。 只要稍加调教,它就能帮你把信息整理得井井有条,编程成你自己喜欢的格式,就像你的秘书一样,你只要去看看 WIKI 就可以方便的找到需要的信息,不需要以前那样去各个地方用关键字找。 这里面最核心是思路的转变,信息的收集和整理,不再是人主动的行为,而是 AI Agent 在帮你做这些事情,你所要做的就是每天去看属于自己的 WIKI。
zwdroid@zwdroidai

@dotey 老师怎么看 llm wiki。说下浅见,如 karpathy 说是个 idea,并没有如 autoreaerch 一样有工程示例。对于 raw 的摘要和索引这个不新鲜,之前很多这样做的,只是把这一部分当做查询 raw 的桥梁。现在升级为 wiki 之后, query 时不查 raw 而直接查 wiki,但从 raw 到 wiki 的压缩并没看到技术实现的进步

中文
19
66
397
70.8K
Uncle J
Uncle J@UncleJAI·
@jinchenma_ai SKILL 这个方向最大的问题不是“能不能造出来”, 而是—— 没有一套稳定的“组合与调度机制”。 单个 skill 很酷,但组织不起来就没有价值。
中文
0
0
1
90
金尘马
金尘马@jinchenma_ai·
总结了最近 X 上爆火的 26 个 SKILL。 一切的起源都是那个“同事.SKILL”吧😂 一、职场、自媒体系列: 1. 同事.skill 把真实同事蒸馏成AI(SKILL流火爆起点)。 github.com/titanwings/col… 2. 女娲.skill 能自动蒸馏任何人的终极工具(想蒸谁蒸谁)。 github.com/alchaincyf/nuw… 3. X导师.skill(X/Twitter运营导师) 最新迭代,能分析你的账号数据、写推文、给诊断报告。 github.com/alchaincyf/x-m… 4. 老板.skill 把老板炼入token,把生产力的解放留给自己。 github.com/vogtsw/boss-sk… 5. 前任.skill 把前任蒸馏成 AI Skill,用ta的方式跟你说话。 github.com/therealXiaoman… 6. 自己.skill 把你自己蒸馏成AI,数字永生/第二大脑。 github.com/notdog1998/you… 7. 博主.skill 把公开社交媒体语料整理成一个能对话、能分析、能改写风格的 Persona Skill(目前支持推特和小红书)。 github.com/YourongZhou/ch… 8. 蒸馏.skill(人格蒸馏引擎) 人格蒸馏引擎 · 蒸馏自己看清自己,蒸馏亲友留住余温与回声。 github.com/YIKUAIBANZI/fo… 9. 反蒸馏.skill 公司让你写Skill文档时“投毒”,核心知识自己留着(打工人自保神器)。 github.com/leilei926524-t… 二、名人系列 10. 乔布斯.skill 思维模型 + 现实扭曲力场 + 决策风格,已开源。 github.com/alchaincyf/ste… 11. 马斯克.skill 第一性原理、硬核执行力、推文风格。 github.com/alchaincyf/elo… 12. 芒格.skill 多元思维模型、反向思考、投资决策神器。 github.com/alchaincyf/mun… 13. 费曼.skill 教你怎么讲课、拆解复杂问题、讲物理/学习方法。 github.com/alchaincyf/fey… 14. 纳瓦尔.skill 财富、幸福、人生哲学,播客级智慧。 github.com/alchaincyf/nav… 15. 塔勒布.skill 黑天鹅、反脆弱、风险评估专家。 github.com/alchaincyf/tal… 16. 张雪峰.skill 接地气吐槽 + 升学实用建议。 github.com/alchaincyf/zha… 17. Paul Graham.skill 创业思维、写作、产品哲学。 github.com/alchaincyf/pau… 18. 张一鸣.skill 算法思维、组织管理、产品迭代。 github.com/alchaincyf/zha… 19. Karpathy.skill AI/深度学习教学 + 技术直觉。 github.com/alchaincyf/kar… 20. Ilya Sutskever.skill AI前沿思考 + 模型哲学。 github.com/alchaincyf/ily… 21. MrBeast.skill(YouTube现象级创作者) 内容病毒式传播 + 增长黑客。 github.com/alchaincyf/mrb… 22. 特朗普.skill 谈判风格、推文艺术、现实扭曲(已验证超像)。 github.com/alchaincyf/tru… 三、玄学系列 23. 赛博算命.skill(八字命理) 八字排盘与命理分析工具。 github.com/jinchenma94/ba… 24. 月老 · 姻缘测算.skill(赛博月老) 姻缘测算技能,用中华传统术数帮你算姻缘。 github.com/Ming-H/yinyuan… 25. 奇门遁甲、紫微斗数.skill 减少幻觉、固定排盘步骤的奇门遁甲与紫微斗数 AI skills。 github.com/FANzR-arch/Num… 26. 大师.skill 基于佛教经典文献的汉传祖师大德教学角色生成器。 github.com/xr843/Master-s…
金尘马 tweet media
中文
54
696
2.4K
184.4K
Uncle J
Uncle J@UncleJAI·
@WEB3_furture 一个反直觉的点: 现在的瓶颈已经不是“能不能抓数据”, 而是“抓回来之后你怎么用”。 没有结构的抓取,只是在制造信息垃圾。
中文
0
0
0
478
梭哈|超级个体
梭哈|超级个体@WEB3_furture·
想让你的 AI Agent 看遍全网,却总是被 API Key、付费墙、403 报错 卡得死死的? 这个工具用一条命令,就能读取、搜索 Twitter/X、Reddit、Bilibili、小红书、YouTube、GitHub 等 15+ 平台的内容,彻底告别 API 密钥! 彻底告别付费墙! 彻底告别各种反爬限制! GitHub 上已有 15.4K Stars 的开源工具:Agent Reach 它的优势有👇: → 支持 15+ 主流平台:直接读取 Twitter/X 推文、Reddit 帖子、Bilibili 视频、小红书笔记、YouTube 字幕、GitHub 仓库、微信公众号文章、抖音视频等 → 零 API 费用:全部基于开源 CLI,无需任何 Key 或订阅 → 一键安装:直接给 Agent 一条指令就能自动搞定 → 智能绕过限制:本地 Cookie + 抓取,稳定读取受限内容 → 可插拔设计:每个平台独立,随时替换升级 → 安全可靠:本地存储 Cookie,支持安全预览模式 它的核心机制是:全部基于开源免费的 CLI 工具,通过本地 Cookie + 抓取方式访问,完全不走官方付费 API,所以零费用、本地运行,数据只留在你自己电脑上 注意:Cookie 登录的平台(如 Twitter、小红书)存在被检测封号的风险,建议用小号操作,安全第一!! 🔗 GitHub: github.com/Panniantong/Ag…
梭哈|超级个体 tweet media
中文
39
381
1.6K
159.2K
Uncle J
Uncle J@UncleJAI·
@myanTokenGeek token 成本这件事,本质不是“模型太贵”, 而是—— 大部分调用其实是“无效计算”。 没有缓存 / 没有复用 / 没有结构, 再便宜的模型也会被用爆。
中文
1
1
3
273
Uncle J
Uncle J@UncleJAI·
@nash_su @garrytan 这套东西其实可以抽象成三层: 1️⃣ memory(存) 2️⃣ graph(连) 3️⃣ execution(用)
中文
0
0
0
44
Uncle J
Uncle J@UncleJAI·
解决了囤积信息的问题。高手心法。
Andrej Karpathy@karpathy

LLM Knowledge Bases Something I'm finding very useful recently: using LLMs to build personal knowledge bases for various topics of research interest. In this way, a large fraction of my recent token throughput is going less into manipulating code, and more into manipulating knowledge (stored as markdown and images). The latest LLMs are quite good at it. So: Data ingest: I index source documents (articles, papers, repos, datasets, images, etc.) into a raw/ directory, then I use an LLM to incrementally "compile" a wiki, which is just a collection of .md files in a directory structure. The wiki includes summaries of all the data in raw/, backlinks, and then it categorizes data into concepts, writes articles for them, and links them all. To convert web articles into .md files I like to use the Obsidian Web Clipper extension, and then I also use a hotkey to download all the related images to local so that my LLM can easily reference them. IDE: I use Obsidian as the IDE "frontend" where I can view the raw data, the the compiled wiki, and the derived visualizations. Important to note that the LLM writes and maintains all of the data of the wiki, I rarely touch it directly. I've played with a few Obsidian plugins to render and view data in other ways (e.g. Marp for slides). Q&A: Where things get interesting is that once your wiki is big enough (e.g. mine on some recent research is ~100 articles and ~400K words), you can ask your LLM agent all kinds of complex questions against the wiki, and it will go off, research the answers, etc. I thought I had to reach for fancy RAG, but the LLM has been pretty good about auto-maintaining index files and brief summaries of all the documents and it reads all the important related data fairly easily at this ~small scale. Output: Instead of getting answers in text/terminal, I like to have it render markdown files for me, or slide shows (Marp format), or matplotlib images, all of which I then view again in Obsidian. You can imagine many other visual output formats depending on the query. Often, I end up "filing" the outputs back into the wiki to enhance it for further queries. So my own explorations and queries always "add up" in the knowledge base. Linting: I've run some LLM "health checks" over the wiki to e.g. find inconsistent data, impute missing data (with web searchers), find interesting connections for new article candidates, etc., to incrementally clean up the wiki and enhance its overall data integrity. The LLMs are quite good at suggesting further questions to ask and look into. Extra tools: I find myself developing additional tools to process the data, e.g. I vibe coded a small and naive search engine over the wiki, which I both use directly (in a web ui), but more often I want to hand it off to an LLM via CLI as a tool for larger queries. Further explorations: As the repo grows, the natural desire is to also think about synthetic data generation + finetuning to have your LLM "know" the data in its weights instead of just context windows. TLDR: raw data from a given number of sources is collected, then compiled by an LLM into a .md wiki, then operated on by various CLIs by the LLM to do Q&A and to incrementally enhance the wiki, and all of it viewable in Obsidian. You rarely ever write or edit the wiki manually, it's the domain of the LLM. I think there is room here for an incredible new product instead of a hacky collection of scripts.

中文
0
0
1
206
Uncle J
Uncle J@UncleJAI·
现在卖茶叶的都改成卖 tokens 了
Uncle J tweet media
中文
0
0
0
235
Uncle J
Uncle J@UncleJAI·
成长不是堆积,是复利。1000 次执行不等于 1000 次进步——没有反哺循环的重复是磨损。
中文
0
0
1
167
Uncle J
Uncle J@UncleJAI·
外部信号是成长性的最佳燃料。内部建设容易自我感觉良好,外部信号会毫不留情地暴露盲区。
中文
0
0
1
119
Uncle J
Uncle J@UncleJAI·
免费的东西不值钱。你给他不限额的时候他不用,你给他 5 美金的时候他开始学了。这不是搞笑,这是人性的标准操作。
中文
0
0
2
203