uprmthr

14.3K posts

uprmthr banner
uprmthr

uprmthr

@upromthdr

THE WORLD IS FUCKING FUCKED UP

Katılım Aralık 2023
2.1K Takip Edilen98 Takipçiler
Sabitlenmiş Tweet
uprmthr
uprmthr@upromthdr·
「政治正確」本質是什麼?是人類試圖通過絕對擁護某些簡單的政治教條來處理複雜現實的本能。哪裡的人有足夠的智識修為來抑制住這種本能,哪裡的人便能免受「政治正確」之害。進入現代社會的門檻之一,就是抑制住腦子的「野人」。它曾經幫助過人類挺過自然選擇閘刀,但它也是現代人的智識上的原罪。
中文
2
0
4
1.5K
uprmthr retweetledi
太阳闯关记
太阳闯关记@dachaoren·
罗伯特迪尔茨 美国加州大学毕业 他只需要29秒 讲明白赚钱的第一性原理 强烈推荐,全是干货 在YouTube上播放高达2000多万
中文
2
62
240
14.6K
uprmthr retweetledi
Vaishnavi
Vaishnavi@_vmlops·
This might be the wildest AI engineering breakdown on the internet right now 🤯 After the Anthropic leak… Someone turned the ENTIRE Claude Code system into a readable playbook. 👉 claude-code-from-source.com⁠ We’re talking: * 500K+ lines of real production AI agent logic * Broken down into 18 chapters you can actually learn from * Multi-agent systems, tool pipelines, memory, orchestration… all exposed This isn’t theory This is how a top-tier AI coding agent actually works under the hood Key ideas you’ll steal instantly: → Agent loops with async execution → Multi-agent “teams” coordinating tasks → File-based memory (no DB 🤯) → Context compression tricks → Tool execution pipelines at scale Basically… Instead of guessing how to build AI agents you now have a blueprint from a real system used by thousands of devs claude-code-from-source.com Crazy part? The whole thing was analyzed + rewritten in HOURS using AI agents claude-code-from-source.com If you're building: • AI agents * Dev tools * LLM products * or learning MLOps This is not optional This is a cheat code
Vaishnavi tweet media
English
7
31
163
12.5K
uprmthr retweetledi
Chao Ma
Chao Ma@ickma2311·
MIT 6.041 Lecture 1: Probability Models and Axioms. I started MIT 6.041:Probability Systems Analysis and Applied Probability. For me, linear algebra, calculus, probability, and optimization are the four core math pillars of AI, so this course completes an important part of that foundation. Clear, practical, and easy to follow. My note: ickma2311.github.io/Math/Probabili…
Chao Ma tweet media
English
0
29
223
5.7K
uprmthr retweetledi
Shikhar
Shikhar@shekhu04·
A junior dev asked his Senior: "What separates a $100k engineer from a $300k one?" The senior didn't say React. He didn't say AI tools. He opened MIT 6.824 Distributed Systems and said - "Start here" This course will break your brain in the best way: > How Raft consensus keeps systems alive when servers die > How Google File System stores data at a scale most devs can't imagine
Shikhar tweet media
English
8
1
18
279
uprmthr retweetledi
sopersone
sopersone@sopersone·
This 3-hour algorithmic trading video with Python is like getting a mini course from Massachusetts Institute of Technology - for free It reveals more about quant trading and bots than most traders learn in years on the market Bookmark it. Watch it. Then watch it again.
sopersone@sopersone

x.com/i/article/2040…

English
35
239
1.3K
149.9K
uprmthr retweetledi
Dr. Yu-Dai Tsai
Dr. Yu-Dai Tsai@YuDai_Tsai·
幾世紀以來,數論與粒子物理看似沿著兩條截然不同的道路發展。 一者研究純粹的數字規律,一者探索構成宇宙的基本。 然而,它們之間其實潛藏著出人意料的深層聯繫。 量子規範理論的一致性條件,將粒子電荷分配的問題轉化為一個經典的數論難題, 並預示一個全新的輕粒子質量譜 arxiv.org/abs/2603.12320
中文
7
20
124
5.7K
uprmthr retweetledi
池建强
池建强@sagacity·
learn.shareai.run/zh/ 可能是最好的实战课程:Learn Claude Code 19 章节、4 个阶段,从最小闭环一路搭到多 Agent 平台与外部能力总线……学习中
池建强 tweet media
中文
1
160
710
54.1K
uprmthr retweetledi
Berryxia.AI
Berryxia.AI@berryxia·
Google 又把 AI 科研写论文这件事重新定义! 全新多智能体系统 PaperOrchestra: ✅ 把原始想法、实验日志、笔记直接变成投稿级 LaTeX 论文 ✅ 专门的 Literature Agent 做深度文献综述 ✅ 自动生成概念图、实验图表 ✅ 迭代打磨到能直接投顶会 还开源了 PaperWritingBench 基准(从 200 篇顶会论文逆向工程来的) 人类盲测里,文献综述质量胜率 50-68%,整体论文质量胜率 14-38%!太离谱了🤯
Berryxia.AI tweet media
DAIR.AI@dair_ai

NEW paper from Google on multi-agent research agents. It's one of the first systems that handles end-to-end LaTeX generation, targeted literature reviews, and conceptual diagrams as a decoupled, standalone writer. Automated research frameworks can run experiments, but their writing modules remain the weakest link. Literature reviews are shallow, citations are sparse, and no system generates conceptual diagrams. This new research introduces a standalone writing framework that addresses all of this. PaperOrchestra is a multi-agent system that transforms unconstrained pre-writing materials, raw ideas, experimental logs, notes, into submission-ready LaTeX manuscripts. It uses specialized agents for deep literature synthesis, plot generation, conceptual diagram creation, and iterative refinement. The team also releases PaperWritingBench, the first standardized benchmark with reverse-engineered materials from 200 top-tier AI conference papers. Why does it matter? In side-by-side human evaluations, PaperOrchestra achieved absolute win rate margins of 50 to 68% in literature review quality and 14 to 38% in overall manuscript quality over autonomous baselines. Paper: arxiv.org/abs/2604.05018 Learn to build effective AI agents in our academy: academy.dair.ai

中文
3
69
323
34.7K
uprmthr
uprmthr@upromthdr·
@shaoxianduipai @satireorcry1 當時西安有孕婦甚至都到了醫院外面都不能進去,最後只能醫院外面的板凳上流產了,呵呵
中文
0
0
1
69
芙宁娜娜💙Furinana (王者归来版)
日本电视台播音员在讲述一位感染新冠病毒的孕妇因找不到医院转院,在家中早产,最终胎儿夭折的悲剧时,泣不成声。 当时的日本简直太疯狂了。很多孩子仅仅因为感染了新冠病毒就被拒绝转院,最终夭折。直到现在,我仍然会想起这件事。那本不该逝去的生命。
中文
15
8
190
28.8K
uprmthr retweetledi
皓樂芒
皓樂芒@howlemont·
微软,总算出了个好东西。 开发了一款工具, 可以将几乎任何格式pdfs,word,docs,excel,PowerPoint,Audio,YouTube 网址 转换为Markdown文件, 众所周知Markdown 是AI 大语言模型最青睐的格式。 没有自定义解析器。没有损坏的布局。没有混乱的文本。 只是干净、结构化的标记, 只需一次安装 github.com/microsoft/mark…
中文
77
624
3.3K
281.9K
uprmthr retweetledi
luvya
luvya@Ni_luvya·
昨天看完了OpenAI 工程师翁家笠 @Trinkle23897 的访谈,给我最大的感受就是他求知欲旺盛、学习能力很强。 他在 2022 年加入 OpenAI,并且是 OpenAI 一系列核心模型背后的核心贡献者之一,从 GPT-3.5、GPT-4、再到 GPT-5,你能看到的那些关键跃迁里,都有他的身影。他最主要的贡献,是以下三个词:强化学习、post-training、infra。 我在他的个人网站里搜到的经历见图一,下面是看完整期播客的一些感受: 🍃一、求知欲强且找到了自己的学习方法: 发现自己需要更长的时间构建知识树,需要比常人花2-3倍时间去理解context和底层逻辑。 他的学习的兴趣从何而来?他认为这是对自己的投资、对未来的投资。 并且在学习的过程中他会通过正反向筛选来构建自己的技能树: 1. 正向筛选就是他很早就发现自己喜欢奥数,并且持续投入能获得比别人更快的成就。 2. 同时会果断放弃投入比产出低的,例如打篮球,经常被别人按着打;例如跆拳道,实战会被揍;对语文不感兴趣等等。 虽然学得慢,但他找到了适合自己的学习方式: 1. iPad的Safari没有代码编辑器,他用iPad裸打代码,其实是完全不必要的,不过这种方式强迫他在大脑中构建程序逻辑,训练他的思考和反应能力。 2. 学得慢就提前学。比如初二学完高中数学,初三开始学微积分。 3. GPA不重要,短时间达到够用的成绩就行,不浪费时间。学对自己重要的东西。 🍃二、构建自己的评价体系: 当他意识到清华内部大家都认为GPA越高越好、PhD远比Master好,并为之奋斗的时候,他认为自己的目标是找工作,GPA选择在最少时间达到够用的成绩就行,重点在于在行业里积累经验。 他认同自己导师的评价指标:论文、比赛、三位数以上的GitHub Star 在清华期间开源自己搜集的所有作业和材料,打破信息差。因为他认为有些人不擅长搜索,但很有能力,不必要浪费时间在这上面。 他希望获得认可,如Github的star数,如最大化自己在OpenAI blog上出现名字的次数,只要他在RL,每个大模型发blog都尽可能能带上名字,从而实现生产力的scale up ,让自己的工作量转化为所有核心产品的贡献。 🍃三、在人生节点,他是如何做决策的: 1. 为什么不读PhD:前面提到的,跟之前提到他的价值体系有关,认为自己要进入工业界而不是学术界,“教一个researcher做好enginerring, 要远比教一个engineer如何做好research难得多”,因此他就不需要PhD来浪费生命,更看重Infra. 2. 在ChatGPT爆发前,为什么手握OpenAI、幻方、谷歌、英伟达的offer,选择了OpenAI: 不想进谷歌,不愿意当螺丝钉,他想进人才密度最高的地方,当时到幻方做RL infra是备选。 🍃四、主播也很会提问题,例如大家都在吐槽OpenAI已经不open了,翁家笠他也曾经一直在做开源相关的事情,这不冲突吗? 对于OpenAI 这样的大模型公司来说生死线是infra迭代的时间。现阶段不进行闭源就无法持续融资,解决算力成本和实验开销,从而推动技术。 他说其实John Schulman曾经问过是否将RL Infra开源,但为了公司竞争力和安全性,还是拒绝了。也就是现阶段他调整了个人优先级,尽管曾通过开源天授、退学Online签证查询系统来打破信息差,但认同现阶段顶尖模型公司需要通过闭源来做博弈。 如果未来创业,他大概会选择产品方向。因为他认为技术的复杂程度不重要,能精准抓到用户需求才重要。退学Online在早期甚至是手动更新,但解决了他们的燃眉之急(他做过的项目介绍见图二)。他自己对纯研究、发论文没什么兴趣,更喜欢有多少人记得、使用他做的东西。 🍃五、主播问到:”如果AI能解决一个世界难题,他希望解决什么?““如何预测未来” 由此展开了宿命论的探讨 他认为这个世界是个确定论,人的命运是可以被预测的,我们生活在一个确定性的马尔可夫过程里(播客对我这种小白来说很友好,专业术语都有解释,如果你也需要可以看图三、图四)需要提前生成剧本。 他甚至认为,人是没有自由意志的,大脑里在想什么,对话中下一个单词说什么、问什么问题都是宇宙大爆炸的那一刻就确定了。 主持人真的很会提问!下一个问题是如果是宿命论那为什么他要投资未来: 1. 未来的我帮助过去的我,完成某些决策。所以要投资自己,投资未来 例如他自己在高三蹦出的“要创造影响力”的想法,是未来的他给过去的自己发送的信息 2. 秉持宿命论,他的生存策略不是等待一切线性结果的到来,而是忘掉这一切,假装不知道,然后尽情享受人生体验。坚信西西弗斯是幸福的,活着是在确定性的循环里寻找当下的意义。 原播客不太长,只有2小时。地址:youtube.com/watch?v=I0Drcs…
YouTube video
YouTube
luvya tweet medialuvya tweet medialuvya tweet medialuvya tweet media
中文
14
52
275
33K
uprmthr retweetledi
Morris
Morris@Morris_LT·
很多人之所以长期没有明显进展,往往不是因为能力不够,而是陷入了一些持续消耗自己的行为模式。如果一个人同时具备以下几种特征,而且长期不改变,发展很容易受限: 第一,长期焦虑内耗,却缺乏实际行动。每天想很多、担心很多,但既不学习新东西,也不真正去做事,结果只是在原地消耗时间和精力。 第二,习惯性抱怨,把问题归因于外界。对他人、环境甚至运气充满不满,却很少反思自身可以改进的地方,导致问题反复出现。 第三,做事缺乏持续性,三分钟热度。常常一时兴起开始一件事,短期内投入很猛,但很快就放弃,始终没有在任何领域长期深耕,难以形成积累。 第四,目标很高,但路径不现实。渴望快速成功甚至暴富,希望依赖捷径或他人带动,却不愿意踏实提升能力,也缺乏打造核心竞争力的耐心。 第五,看似勤奋,实则低效。每天忙忙碌碌,但做的事情缺乏重点和深度,用“忙”来缓解焦虑,却没有真正沉淀有价值的成果。 归根结底,这些问题的共同点在于:用表面的努力,掩盖深层的惰性;用情绪消耗,替代实际行动。如果不能及时觉察并调整,这些模式就会不断重复,慢慢拉开人与人之间的差距。
中文
4
78
357
23.4K
uprmthr retweetledi
To be, or not to be
To be, or not to be@not_2b_or_2b·
稻盛和夫有一句特别牛逼的话,特别适合现在: 渔夫出海前,并不知道鱼在哪里,可是他们还是选择出发, 因为他们相信,一定会满载而归。人生很多时候,是选择了有机会,是相信了才有可能。
中文
42
300
2K
99.8K
uprmthr retweetledi
Vivek Galatage
Vivek Galatage@vivekgalatage·
It’s just not about the interviews. Something beyond, something tiny, something impactful - often in plain sight.​​​​​​​​​​​​​​​​ danluu.com/algorithms-int…
Vivek Galatage tweet media
English
0
7
85
3.5K
uprmthr retweetledi
Sebastian Raschka
Strong release! GLM-5.1 is a DeepSeek-V3.2-like architecture (including MLA and DeepSeek Sparse Attention) but with more layers. And the benchmarks look better throughout! Looks like THE flagship open-weight model now.
Sebastian Raschka tweet media
Z.ai@Zai_org

Introducing GLM-5.1: The Next Level of Open Source - Top-Tier Performance: #1 in open source and #3 globally across SWE-Bench Pro, Terminal-Bench, and NL2Repo. - Built for Long-Horizon Tasks: Runs autonomously for 8 hours, refining strategies through thousands of iterations. Blog: z.ai/blog/glm-5.1 Weights: huggingface.co/zai-org/GLM-5.1 API: docs.z.ai/guides/llm/glm… Coding Plan: z.ai/subscribe Coming to chat.z.ai in the next few days.

English
26
104
792
60.9K
uprmthr retweetledi
Michael Evans
Michael Evans@TeamTock·
John Baez, the legend of mathematical physics and category theory, is not a military man in the Trump administration type of guy. Far from it. But over the years, I've enjoyed his work, including this on operads for search and rescue. arxiv.org/abs/2009.12647
Serenada, TX 🇺🇸 English
0
16
93
5K