Haolai(Anthony)Che

98 posts

Haolai(Anthony)Che banner
Haolai(Anthony)Che

Haolai(Anthony)Che

@ZeroSurega

Constantly questioning why it is what it is. Computer Science Ph.D. candidate @CWRU DB Group

Cleveland, Ohio Katılım Nisan 2023
110 Takip Edilen28 Takipçiler
Haolai(Anthony)Che
Haolai(Anthony)Che@ZeroSurega·
Excited to share CRUXpider (v0.1.0), an early open-source research asset discovery tool under the CRUX umbrella: crux-project.github.io. CRUXpider helps researchers go from just a paper title, topic, or research area to datasets, code, benchmarks, reading paths, and representative papers for AI4Science workflows. It currently integrates arXiv, OpenAlex, Semantic Scholar, Crossref, DataCite, OpenAIRE, and the GitHub API, and can be launched with a simple one-command local setup. This is an early release with much room for improvement, but we’re opening it early for feedback and collaboration. If this direction resonates, we’d love your thoughts, issues, stars, and contributions. Contact: hxc859@case.edu CC: ywx1650@case.edu, Dr. Yinghui Wu (@yinghuiwu4) @dbgroup_cwru @cwru GitHub: github.com/crux-project/C… #OpenSource #AI4Science #ResearchTools #MaterialsScience #MachineLearning
Haolai(Anthony)Che tweet mediaHaolai(Anthony)Che tweet mediaHaolai(Anthony)Che tweet mediaHaolai(Anthony)Che tweet media
English
0
0
0
39
Haolai(Anthony)Che retweetledi
Haolai(Anthony)Che retweetledi
Yangyi
Yangyi@yangyi·
斯坦福大学的这篇论文值得了解👇🏻 他们构建了一个AI智能体框架,从零数据起步,没有人工标注,没有精心设计的任务,也没有任何演示,但它竟然超越了所有现有的自博弈方法。 这个框架名为Agent0:通过工具集成推理,从零数据中释放自我进化的智能体。 它所取得的成就令人难以置信。 你之前见过的所有“自我提升”的智能体都有一个致命的缺陷:它们只能生成比它们已经知道的稍微难一点的任务,所以它们会立即达到瓶颈。 Agent0打破了这个天花板。 关键在于: 他们从同一个基础LLM中生成两个智能体,并让他们竞争。 • 课程智能体 - 生成越来越难的任务 • 执行智能体 - 尝试使用推理+工具来解决这些任务 每当执行智能体变得更好时,课程智能体就会被迫提高难度。 每当任务变得更难时,执行智能体就会被迫进化。 这创造了一个闭环、自我强化的课程螺旋,而且这一切都是从头开始的,没有数据,没有人,什么都没有。 只是两个智能体互相推动,达到更高的智能水平。 然后他们添加了作弊码: 一个完整的Python工具解释器在循环中。 执行智能体学习通过代码来推理问题。 课程智能体学习创建需要使用工具的任务。 所以两个智能体都在不断升级。 结果呢? → 数学推理能力提高+18% → 一般推理能力提高+24% → 击败R-Zero、SPIRAL、Absolute Zero,甚至使用外部专有API的框架 → 所有这些都来自零数据,只是自我进化的循环 他们甚至展示了难度曲线在迭代过程中上升:任务从基本的几何开始,最终达到约束满足、组合学、逻辑谜题和多步骤依赖工具的问题。 这是我们见过的最接近LLM中自主认知增长的东西。 Agent0不仅仅是“更好的RL”。 它是智能体引导自身智能的蓝图。 智能体时代已经解锁。
Yangyi tweet media
中文
14
150
558
50.9K
Haolai(Anthony)Che retweetledi
Akshay 🚀
Akshay 🚀@akshay_pachaar·
Google just dropped "Attention is all you need (V2)" This paper could solve AI's biggest problem: Catastrophic forgetting. When AI models learn something new, they tend to forget what they previously learned. Humans don't work this way, and now Google Research has a solution. Nested Learning. This is a new machine learning paradigm that treats models as a system of interconnected optimization problems running at different speeds - just like how our brain processes information. Here's why this matters: LLMs don't learn from experiences; they remain limited to what they learned during training. They can't learn or improve over time without losing previous knowledge. Nested Learning changes this by viewing the model's architecture and training algorithm as the same thing - just different "levels" of optimization. The paper introduces Hope, a proof-of-concept architecture that demonstrates this approach: ↳ Hope outperforms modern recurrent models on language modeling tasks ↳ It handles long-context memory better than state-of-the-art models ↳ It achieves this through "continuum memory systems" that update at different frequencies This is similar to how our brain manages short-term and long-term memory simultaneously. We might finally be closing the gap between AI and the human brain's ability to continually learn. I've shared link to the paper in the next tweet!
Akshay 🚀 tweet media
English
257
1K
6K
510.9K
Haolai(Anthony)Che retweetledi
机器之心 JIQIZHIXIN
机器之心 JIQIZHIXIN@jiqizhixin·
This paper from Tsinghua University and Shanghai Jiao Tong University received perfect scores (6, 6, 6, 6) at NeurIPS 2025! It aims to answer a key question: Does reinforcement learning really make large language models better reasoners? The authors study Reinforcement Learning with Verifiable Rewards (RLVR) and find that while it improves accuracy for small k, it doesn’t create new reasoning patterns—meaning the base model still determines the upper limit of reasoning ability. Across six RLVR variants, performance gains plateau, suggesting that current RL setups mainly refine reasoning rather than reinvent it. Interestingly, it’s distillation, not RL, that shows genuine signs of emergent reasoning. This research points to the next frontier for truly self-improving large language models. Does Reinforcement Learning Really Incentivize Reasoning Capacity in LLMs Beyond the Base Model? Paper: arxiv.org/abs/2504.13837 Page: limit-of-RLVR.github.io Our report: mp.weixin.qq.com/s/2-GDxs8j1QYh… 📬 #PapersAccepted by Jiqizhixin
机器之心 JIQIZHIXIN tweet media
Yang Yue@YangYue_THU

Thrilled that our paper received the only perfect score at NeurIPS this year. Huge thanks to my collaborators and the reviewers. See you in San Diego! limit-of-rlvr.github.io papercopilot.com/statistics/neu… credit to @papercopilot

English
28
277
1.8K
396.3K
shenxiao
shenxiao@Shenxiao123971·
最难吃的蔬菜投票
shenxiao tweet media
中文
2K
30
1.2K
771.2K
Haolai(Anthony)Che
Haolai(Anthony)Che@ZeroSurega·
@FuSheng_0306 所以单纯的coding已经很cheap了,人类要做的是设计更好的算法,更优秀的理论,更好的架构,更高效的prompt.
中文
0
0
0
66
傅盛
傅盛@FuSheng_0306·
腾讯内部人士透露:腾讯50%新增代码由AI辅助生成!你还觉得AI写代码不靠谱吗?
傅盛 tweet media
中文
99
41
291
171.7K
Haolai(Anthony)Che
Haolai(Anthony)Che@ZeroSurega·
@yyds123888 那年我刚上大一,根本没有一百万,就算有认知也跟我没有关系
中文
1
0
3
4K
币圈福利哥
币圈福利哥@yyds123888·
最近两天我操作挺傻逼的,亏了10个bnb。 今天无意中翻到一个快 10 年前的音频,是孙宇晨的。 听完我整个人都不好了。 他说:别买房、别买车。 拿 100 万,在 2016 年分成 5 份,买这几个东西——比特币、英伟达、特斯拉、腾讯,还有一个 LC。 拿到现在,6700 万。 我去,6700 万。英伟达和比特币翻了 150 倍。 就算里面有一个亏了 30%,那又怎样? 在巨大的正确面前,这点小错误连个浪花都算不上。 最骚的是,他当时反反复复在念叨一件事:人工智能。 2016 年啊,我的天。 那时候我们都在干嘛? 琢磨着首付,盘算着换车,觉得比特币是骗局,觉得特斯拉就是个电动玩具。 很多人骂他割韭菜,骂他戏精。 这些可能都是真的。 但你不得不服,人家在认知层面,真的把我们按在地上摩擦了。 我们赚的是辛苦钱,人家赚的是认知的钱。 这玩意儿,真比不了。
中文
127
66
672
345.4K
Mirror Tang
Mirror Tang@mirrorzk·
我们该怎样告别呢?是从初遇的晚风说起,还是对往事的片刻回忆. 原来人生世事无常, 多的是别离 我们好像很讨厌等 等排队 等雨停 等风来 但我们又好像很喜欢等 等以后 等有钱 等有时间 我们一直都在等待 但我们不能一直只有等待 因为等不来春风得意 等不到功成名就 等不起岁月无情 这世界美好如斯,而我们仍然年轻. 大好光阴等我们去一步步完成夙愿,饱满灵魂,丰富阅历. 雪雨风烛,桑梓叶稀,顺从本辄,无人干涉. 于道各努力 千里自同风
jiayi 加一@mscryptojiayi

突然想聊一下我的关系比较“敏感”的Mirror童鞋 我和Mirror认识在19年我组织的币安的黑客松,这位大哥连赢两场所以与我结识。我从交易所离职出来打算做点事情,由于我对于技术的超级匮乏所以第一时间找了Mirror。 Mirror考虑了一秒钟说了Yes,所以我们做了开始了 @geek_cartel 基金的雏形,我们的想法简单幼稚无比,即“希望用技术,市场等项目方创业需要到的硬实力帮助一起成长。最早从非常DAO的形式尝试到正式成立基金,再到看到一地鸡毛我们理想的希望通过真正的安全更优性价比为行业的项目方保驾护航的 @salus_sec 安全公司。 我们在一起紧密合作2年多吧,彼此都有极度的厌蠢和理想主义,我们吵架无数干哭对方也是有过发生。 最后我们拆伙了。我们实在没有办法找到既可以保障基金利益又可以保障Salus安全公司利益前提下高速运转两个这个周期比较难度级的初创公司。最重要的是,我认为Mirror偏离市场,偏离用户根本需求,只是一味的满足个人心理。 之后,也是经常可以看到他发表很多不得体的言论。搞得我像老母亲一样私下劝他(当然基本都无果 🤷)我当时很庆幸我的选择。 可突然,他在我的视野里成为了一个代表项目方冲在第一线永远和用户站在一起的“领袖”; 他突然有一天可以做到USDe脱牟时间马上组织AMA边第三视角的和用户保障利益前提下来分析利弊,尊重用户所有的行为。用户这边说撤资金,他马上说好的,马上安排撤出; 当用户提出质疑和建议,他能真正的聆听并回复:“感谢你的建议,祝你发财 😂” 我知道这个高智商低情商的曾经的男孩长大了,虽然现在仍然很不完美。但是他一直在向更好迈进。 愿,时光给予他更多的温柔,相信他对很好的对待这个世界。 最后,问一句 @mirrorzk 你曾经想改变世界的理想还在吗?

中文
51
3
110
34.2K
Haolai(Anthony)Che
Haolai(Anthony)Che@ZeroSurega·
Vibe coding is a wild experience. You enter a state of pure flow and emerge hours later with a masterpiece... that you don't fully understand, almost like a blackbox.
English
0
0
0
75
Mirror Tang
Mirror Tang@mirrorzk·
不要发币🥲 别人行我也行是一种错觉 你有好赌的爸爸吗? 你有生病的妈妈吗? 你有年幼的弟弟吗? 你有家暴的老公吗? 如果都没有,最好先算算自己命硬不硬 这里是地狱!
Mirror Tang tweet media
中文
53
0
123
26.7K
Haolai(Anthony)Che
Haolai(Anthony)Che@ZeroSurega·
@cryptopainter 可惜人只能活一次,你只能活成你自己,所以不需要活在别人的影子里,我虽然不是币圈的,但是“发偏财也是发财”
中文
0
0
0
142
Crypto_Painter
Crypto_Painter@CryptoPainter·
我可能是个失败者…给币圈丢脸了… 虽然一直在加密混,但这几年零零散散了解到了一些同学信息,当中有不少高中同学及大学同学混的都比我好… 有的是国内互联网大厂里面的小领导,还有的子承父业掌管了整个家族企业,最牛逼的一个同学,虽然不熟,但听说大学毕业后去干了淘宝店,年营业上亿的那种… 还有搞科研的,做理论物理的一个从小一起长大的朋友居然能够成功转行去了华尔街!?这是什么操作我到现在都没搞懂,理论物理和金融有什么直接的交集? 另外就是两个高中同学,跑去美国读生物学博士,这么难以就业的职业居然也被人家俩跑成功了,最后留在美国还结了婚,成了真正意义上的学霸夫妇… 而我呢,除了炒币赚了点偏财以外,没干啥正经事业,未来如果有同学聚会,怕是也不敢参加了… 所以世界名校和一个亿选哪个? 哎…
Vand Ni|Asian bro@nihaovand

今天收到了自己学校的退学处理通知 我想起来那个很有名的采访,清华北大和一个亿你选什么 我是上海双一流和一个亿你选什么? 进入社会的人生用小说概括就是: 第一集:初上大学没钱到处兼职 第二集:区块链?不是搞诈骗的吧 第三集:我在huobi的升职之路,男大也能当管理? 第四集:算了不上了,勇敢梭哈 番外:代理4k个eth的那些日子 第五集:终于赚了,huobi被收购?我直接辞职躺平 第六集:爆仓,一贫如洗,房租交不起,下海做直播 番外:直播求大哥大姐刷礼物的日子 第七集:去迪拜基金好好工作,我能东山再起 第八集:辞职!成就自己 番外:长太丑了怎么办?一年六个手术换脸 第九集:只有7wu怎么还敢做投资? 第十集:交易!成就自己! 第十一集:关于你选择一个亿还是上海双一流大学? 大家喜欢看那个章节呢?

中文
126
10
190
164.4K
World of Statistics
World of Statistics@stats_feed·
The anonymous Bitcoin creator Satoshi Nakamoto now holds over $121 billion worth of BTC — and no one on Earth knows who he actually is.
World of Statistics tweet media
English
243
223
2.8K
272.3K
neural nets.
neural nets.@cneuralnetwork·
Really want to connect with researchers on this app. If you are doing cool research at any lab, or academic research as an UG/PG/PhD, reply below - would love to connect! especially if you work in - LLMs - Machine Translation (low resource brownie points :D ) - Reasoning - Interpretability
English
53
11
393
22.3K
Haolai(Anthony)Che
Haolai(Anthony)Che@ZeroSurega·
Good resource, but only learn it when you need it. Don't frac your time and energy on random stuff.
GitHubDaily@GitHub_Daily

想系统学习数学知识,网上的教材、视频课程、练习题非常多散落在各个地方,要找到质量高的学习资料特别耗费时间。 恰巧,在 GitHub 上看到了 Awesome Math 这份精心整理的数学学习资源清单,已经获得 10000+ Star。 收集了数学各个知识的优质学习资源,涵盖代数、几何、分析、概率统计、数论等 30 多个领域。 GitHub:github.com/rossant/awesom… 同时提供多种学习方式,比如视频教程、电子教材,以及练习工具等,甚至还有 MIT、哈弗等名校学生的课程笔记。 所有资源都经过精心筛选,目前还在持续更新当中,想自学数学的同学,这份资料值得收藏一下。

English
0
0
1
141