hyhriber

1.4K posts

hyhriber

hyhriber

@hyhriber

什么都不做

Katılım Ağustos 2023
9 Takip Edilen570 Takipçiler
hyhriber
hyhriber@hyhriber·
@sheriyuo 这种事情千万留到小群里说,或者和熟人说 我之前想说也不憋着不说,因为我发现之前自揭伤疤的行为好像都没有好的反馈 之后就发自内心地不想说了,别人问我也尽量回避。我发现其实很多人不愿意听,或听后会降低对我的评估,甚至自揭伤疤的行为本身就在降低我的能量
中文
1
0
13
1.7K
Xiuyu Li
Xiuyu Li@sheriyuo·
不得不提我志愿填报的时候,家里人想让我报北航 or ZJU 的 CS。我拿着菜刀跟他们对峙死也别改我志愿,我第一志愿就填的 RUC,第二志愿乱填的 PKU( 大学四年结束了,我从没回过家,父母来北京找我也没见到我,只见到了我的急诊洗胃报告单,于是他们也知道了我是真的要以死相逼 我不想收家里的生活费,但是他们硬要塞给我,也给过我几个月的房租,或许就是他们剩下的唯一良知了吧。对我而言我的父母就是我的最大问题,小学老师的父亲、最低收入的母亲、恨铁不成钢的清北苗子 我高中最好的一位竞赛同学 & 好朋友知道我的这些事情,她的家长觉得我的父母做的相当不对,一定程度上也很可怜我的境遇,可惜的是这位朋友已经和我断交了 反观我那几十位去了清北的同学,我愈发感受到家学/家境是如何塑造一个孩子的,又是如何养废一个孩子的。我今年 21,却早早在未成年的时候就开始在社会自己谋生,或许承受了许多我这个年纪不该承受的东西 我跟我的导师聊人生、聊爱好,我的兴趣爱好已经跟一个 三四十的中年人差不多了,对于感情、婚姻的态度也是,尤其是我永远不可能再把我的不幸再带给下一辈了。这种事情是永远不可能和解的,得到的结果反而可能是我爸一刀把我捅死,我早就想开了 于是我跟我的导师全部说出了这些事情:为什么我想润、为什么我留在国内是慢性死亡、以及我的心病,难以想象这件事情对他的伤害有多大。这件事情的一个星期以内我想到他我就会哭,和朋友散了很久的步我才慢慢走出来,大家都很痛苦吧 家长为什么总是期待拿棍棒、体罚教育孩子,孩子就一定会在数十年后哭着理解这种中国式教育的正确性,并学会用同样的方法教育自己的孩子呢?
紫云@dviolettchan

感觉很多家庭问题的根源,是父母自己的生活不够丰富,于是把小孩当成唯一的精神支柱,最后变成疯狂控制小孩,做出各种越界甚至不可控的行为。 这种父母其实非常可怕。 相比正常的成年人关系,父母往往不可交易,却又会对你声索近乎无限的权力。 (1/2)

中文
31
2
240
61.3K
hyhriber
hyhriber@hyhriber·
@jxzdmzw 怎么这么快?这东西公开信息根本就检索不出,我已经试过好多好多次了,你哪里来的信源 什么意思呢,你要看EUV得看上游的技术是否达标吧,我便列了一份十分长的清单,罗列需要检索的上游行业和相关企业。之后逐一检索专利局、官网信息等值得采信信源 但是我发现很多都是保密的,问不出结果
中文
1
0
0
1.2K
侥幸没歪
侥幸没歪@jxzdmzw·
再加一个:高端光刻机 当初:ASML是集全球顶级产业链之大成,中国再过一百年也造不出。 现在:宇量昇28纳米DUV已经在中芯测试,即将量产。13.5纳米EUV实验原型机在深圳整装完毕,开始测试。5纳米EUV在东莞无尘车间实现可行性验证,计划2028年量产。 三条技术线路并行,上海、深圳、雄安分别与中科院、哈工大、清华大学合作,差异化突破,绕开专利壁垒。
夏河@jlaw520

那些年我们嘲讽+贬低+唱衰的中国项目: 1. 一带一路(2013) 当初:西方普遍认为是“债务陷阱”“中国版马歇尔计划”,穷国搞基建不划算、不可持续。全国人唾骂“大撒币”,所有政论博主集体断言:该计划只为买穷国举手凑人头,祸国殃民。 现在:覆盖150+国家地区,中欧班列、中老铁路、雅万高铁等落地,全球贸易与供应链重构,中国成为120+国家最大贸易伙伴。2025中国贸易顺差破万亿美金,东盟被中国培养成第一大贸易伙伴,产销一体震惊世界。 2. 新能源革命(光伏/风电/新能源车,2010年后) 当初:“补贴养不活”“产能过剩”“不如传统能源划算”“电动车是骗局”。中国电车经历了十年的“暴雷诅咒”。 现在:光伏/风电全球占比50%+;新能源车产销量连续8年世界第一,出口碾压欧美;全产业链成本最低、技术第一。美伊战争全世界油价飞升,中国已成电力王国。 3. 脱贫攻坚(2015–2020) 当初:西方认为“不可能”“专制手段”“数据造假”,全球无大国能在短时间消除绝对贫困。 现在:近1亿人脱贫,832贫困县摘帽,人类减贫史最大奇迹,联合国背书。 4. 北斗全球组网(2000启动、2020完成) 当初:美国嘲讽“搞不成全球系统”“不如买GPS”,欧洲伽利略都搞不定,中国痴人说梦。 现在:全球四大导航系统之一,覆盖200+国家,定位精度厘米级,手机、汽车、国防全用,打破GPS垄断。 5. 5G全面建设(2015后) 当初:“投入太大没回报”“4G够用”“中国技术落后”“华为设备不安全”。 现在:基站数占全球70%+,标准必要专利全球第一,华为、中兴领跑,支撑工业互联网、自动驾驶,欧美被迫跟进。 6. 中国空间站(天宫,2022全面建成) 当初:美国封锁、西方质疑“没技术、没钱、搞不成”,苏联/俄罗斯都栽过,中国不行。 现在:全球唯一在轨运行空间站,多国宇航员进驻,科学实验成果频出,打破太空垄断。 7. 高铁网络(2008后) 当初:“太贵”“运椅子”“抄日本新干线”“安全隐患大”,西方不看好、日本嘲讽。海外博主集体嘲讽不赚钱(为了黑把修高铁说成原罪) 现在:里程4.6万公里(全球70%+),350公里时速,成本最低、技术最强,出口多国,官方宣布:打造交通并不为了短期盈利,只为重塑中国经济地理。 8. 国产大飞机C919(2023商业运营) 当初:“造不如买”“技术差距50年”“烧钱无底洞”,波音/空客垄断,中国不可能。 现在:自主知识产权,全球第三家能造大型客机,打破双寡头垄断,订单超千架。 9. 数字经济/移动支付(2013后) 当初:“不安全”“监管失控”“信用卡更先进”,西方不看好无现金社会。个人信息被中共收集,没有人权。 现在:移动支付覆盖率80%+,电商规模全球第一,数字人民币落地,普惠金融全球领先。世界多国学习中国模式,重金聘请中国团队打造数字支付系统。 10. 碳中和/双碳战略(2020) 当初:“自断臂膀”“牺牲经济”“发展中国家不该扛”,西方嘲讽“做不到”。 现在:可再生能源装机全球第一,光伏/风电出口全球,倒逼全球能源转型,中国成绿色技术领导者。 11. 粤港澳大湾区/长三角一体化(2017后) 当初:“城市内斗”“制度差异大”“搞不成”,全球无先例的“一国两制”湾区。彻底毁掉香港🇭🇰 现在:深中通道、港珠澳大桥通车,科创集群崛起,GDP超纽约湾区,世界级城市群成型。香港再度金融起飞。 12. 量子科技(2016墨子号、2020九章) 当初:“实验室玩具”“商业化无期”“中国落后欧美”。 现在:量子通信全球唯一实用化,量子计算“九章”超谷歌悬铃木,全球第一梯队,突破“卡脖子”。 13. 芯片大跃进(集成电路) 过去:被世界嘲讽“芯片大跃进”“骗补贴”,汉芯造假、弘芯烂尾频发,投机者套取补贴,技术落后、自给率不足20%,高端芯片高度依赖进口。甚至恶毒诅咒:若不肯对美下跪,就等着被科技制裁到国将不国。 现在:国产成熟制程突围,2025年出口1.44万亿元、+26.8%,成第一大出口单品;东盟为最大市场,出口3502亿元、+41.8%。华为昇腾领跑国产AI芯片,出货81.2万张、占国产49%,全市场份额20.3%;自给率超43%,成熟制程全球第一,借一带一路物流+RCEP关税红利成顺差核心支柱。 过去十几年,中国接连推出一系列让世界看不懂、甚至普遍唱衰的大计划。我们每个人都在这些计划的落地过程中,贡献了不少贬低与污蔑。但今天,所有质疑都被事实回应。你已偷偷自我反思?还是坚决尬黑到底,绝不走出认知茧房半步?

中文
72
33
331
114.6K
hyhriber
hyhriber@hyhriber·
@loveworldow 我们当时学苏联的“民族”政策,给不同“民族”间画面边界,以为是尊重多样性、还企图消除隔阂 但是这种法律定义的、没有科学依据的边界,我看就是最大的分裂。要知道汉人的习俗,南北差异可比少数民族更大,真分出来,国家不得四分五裂
中文
1
0
8
431
突恐研所助理 Muchas Gracias🇦🇲
网友爆料,新疆75事件期间,有维族穆斯林老太锁住小区,不让汉族居民逃跑,导致汉族居民全部遇害。 强烈谴责恶毒的东突维吾尔伊斯兰恐怖主义!
突恐研所助理 Muchas Gracias🇦🇲 tweet media
中文
26
18
301
57K
小许
小许@xuxuyp777·
@Lakr233 当初学护理,给我一种我能照顾好任何人的错觉
中文
1
0
6
1.2K
hyhriber
hyhriber@hyhriber·
@Mayhem4Markets 那我只能质疑qwen或者你的数据了,两者没资格一起比较,除非qwen是agent scaffold对比opus 我只能这么想,因为我总不能相信人能举钢卷吧
中文
0
0
0
46
Markets & Mayhem
Markets & Mayhem@Mayhem4Markets·
This is actually insane. 🤯 Claude Opus 4.6 has around 200B active parameters and registers 75% on SWE-bench verified. Meanwhile, Qwen 3.6 35B A3B has 3B active parameters and scores 73.4% on SWE-bench verified. Same benchmark, but Qwen has 60x fewer active parameters.
Markets & Mayhem tweet media
English
56
50
625
212.5K
hyhriber
hyhriber@hyhriber·
@sheriyuo 你还挺上进,某位朋友996完了就煲剧了,我也劝不动
中文
0
0
1
49
Xiuyu Li
Xiuyu Li@sheriyuo·
已经被很多位推友问到我怎么这么能发推了🤣 我每天的 workflow 按照 priority 从高到低排序 1. work.md: Keep my GPU running MAX 2. heartbeats.md: 群里面有人聊天就水群,先水 PhD 群再水各种别的群 3. social.md: 闲的没事就刷刷推/知乎/xhs,看到有趣的 paper 就用 GPT 看一下,然后帮作者转转推 4. eat.md: 饿了就吃饭,工作日就吃食堂,周末就找饭搭子出去吃,吃完散个步没问题吧 5. diet.md: 减肥 9.5 分靠吃,0.5 分靠练,4 个月不锻炼减了 9kg 5. research.md: 对不起我还在古法编程,公司没有 cc 给我用,老板不发 api 6. sleep.md: 困了就睡觉 不上班醒了我就 online,玩游戏不如刷视频水群 工作日 working 09:30-23:30,我也不知道实际工作了几个小时,下班倒头就睡 会员制小群,不加人😇
中文
8
2
91
5.1K
hyhriber
hyhriber@hyhriber·
@studyouwei @yiran2037840 有几点,首先是Chen仅修正方法,并非添加假设引入操作,拟合好仅是其结果。而且2篇论文的90%置信都十分宽,并非准确预测 其次,原论文拟合出来Gemini 40T的逆天数据,但在传播中被选择性忽视了 最后,新的相对更严谨的方法下,是否thinking几乎不会影响参数大小,原论文下thinking会较大增加参数
中文
0
0
0
69
backfire
backfire@studyouwei·
@yiran2037840 这个论文里作者测过的模型最大就1T,那个线性回归线最后一个点是1T,你不能说1T后的模型也遵循这个线性关系。所以无论他怎么测,无论测哪个闭源模型,都会得到1T左右的估计。懂机器学习的知道这叫过度拟合
中文
1
0
0
245
Yiran
Yiran@yiran2037840·
刚刚,一位博主对最近很火的“估算GPT-5.5和Opus-4.7参数量”的帖子提出了数值方面的质疑,该博主的结论为: GPT-5.5 ~1.5T, Opus-4.7 ~ 1.1T。值得注意的是该博主对“不可压缩探针”方法是认可的,仅修正了数值。 个人看法:即使数值下修,GPT-5.5参数量仍然远大于Opus的参数量。在此基础上,OpenAI仍然能稳定服务几乎所有C端用户。个人觉得Anthropic预留给普通C端用户(非Mythos模型)的算力远小于OpenAI预留给GPT-5.5的算力。 此外,我个人觉得OpenAI极有可能在“推理Infra”和“与Cerebras的合作”上有了显著的突破,从而实现高效复用KV Cache与算力资源,达到快速且稳定的服务质量。
Lawrence Chan@justanotherlaw

A recent viral paper claims to reverse-engineer the parameter counts of frontier models: GPT-5.5 = 9.7T, Opus 4.7 = 4.0T, o1 = 3.5T, etc. @ben_sturgeon and I investigated and found serious issues in the paper; fixing them gives GPT-5.5 as ~1.5T (90% CI: 256B-8.3T).

中文
8
5
55
25.5K
hyhriber
hyhriber@hyhriber·
@sheriyuo 我真的很有一种感觉,虽然本质是不同的,但是心理确是相同的 我以前见crypto的KOL会用“每天赚0.5%”来给自己定目标,并表示这是一条“稳扎稳打”的积累财富,真是贻笑大方 与其认为日积跬步可以追上前沿,真不如退一步学一些稳定的、可以泛化和延拓的知识
中文
0
0
0
114
Xiuyu Li
Xiuyu Li@sheriyuo·
光是每天刷推都能刷到很多小同行的 paper,那么这 376 篇里面有多少篇是值得一读的呢? 至少我每天还是会坚持用 GPT 读几篇,看看文章的证明怎么写的,多读总会带给你一些新的 insights 的 一天读 3 篇也确实很卷了
AI最严厉的父亲@dashen_wang

过去一个月,AI相关论文 11297 篇。 平均每天 376 篇。 你一天读 3 篇,已经是学术界卷王。 但你还落后了 373 篇。 没有人跟得上了。 包括写这些论文的人自己。

中文
5
0
35
5.6K
hyhriber
hyhriber@hyhriber·
@sheriyuo 我们写量化有个习惯,先建模再统计,并且建模尽量少假设,多演绎。哪怕假设是错的,譬如AS做市模型,假设几乎全错,硬着头皮演绎下去 为什么,因为对于路径不可复现、样本稀少的市场,再无其他办法,但凡参数自由度高一点就过拟合,只得大胆建模 所以,我不想第一反应是把残差归因于系统误差或白噪
中文
0
0
1
75
Xiuyu Li
Xiuyu Li@sheriyuo·
@hyhriber 这个跟 pt 具体用了什么数据有关,所以只是一个置信度
中文
1
0
2
84
Xiuyu Li
Xiuyu Li@sheriyuo·
"After DeepSeek V4 dropped, I let my agent spend four days autonomously building Incompressible Knowledge Probes (IKP)." The idea it came up with is honestly beyond AAAI main conference level. Absolutely insane for four days. Website: 01.me/research/ikp/
Zhihu Frontier@ZhihuFrontier

A breakthrough way to estimate closed-source LLM parameter sizes — no access to model weights, just black-box API calls! 🕵️‍♂️ Insight from Zhihu Contributor 李博杰 @bojie_li 🔑Core Insight Closed labs hide model sizes, but they can’t hide what models know. Inference can be compressed, factual knowledge cannot — this is the key to estimating LLM scale. 📅3-Year Long Test My friends He Jiyan & Zheng Zihan asked top models the same question for 3 years: "Do you know USTC Hackergame?" (A classic CTF contest) • May 2024: GPT-4o made up fake problems • Feb 2025: Claude 3.7 Sonnet listed 19 real 2023 challenges • Apr 2026: Frontier models recall full problems across multiple years 🧪IKP: Incompressible Knowledge Probes After DeepSeek-V4 launch, my agent spent 4 days building IKP: • 1,400 questions + 7 rarity levels • Tested on 188 models from 27 vendors 📊Finding 1: Factual Accuracy = LLM Scale Indicator Factual accuracy ↔ log(parameter size) (log-linear correlation) R² = 0.917 (89 open-source models: 135M ~ 1.6T params) Closed-source estimates (90% CI: 0.3–3x): • GPT-5.5 ≈ 9T | Claude Opus 4.7 ≈ 4T • GPT-5.4 ≈ 2.2T | Claude Sonnet 4.6 ≈ 1.7T • Gemini 2.5 Pro ≈ 1.2T 📚 Finding 2: Impact > Citation Count Citation count & h-index can’t predict if a model recognizes a researcher. Models remember people with impactful work, not those with massive incremental papers. 📈 Finding 3: Factual Capacity Doesn’t Compress Over Time Tested 96 open-source models across 3 years — IKP time coefficient = 0 (p < 10⁻¹⁵), rejecting Densing Law’s +0.0117/month prediction. 💡Benchmarks saturate, but factual knowledge grows with parameters. 🎯Key Takeaway Black-box LLM scale is no longer a secret — factual knowledge is the ultimate probe. 🔗Full article: zhihu.com/pin/2032769685… #LLM #ModelScale #DeepSeek #GPT5 #AIResearch

English
3
7
130
26.7K
hyhriber
hyhriber@hyhriber·
@sheriyuo arxiv.org/pdf/2604.22446 原文是正儿八经的学术研究,用OMC只是让你有通俗理解 没有热衷于复刻真实的公司模式、没有引入“博弈”的过程,只是基于「统筹分工」在最小程度地构造 实验要解决什么问题?多智能体“七嘴八舌”和幻觉的问题,以及工作流固定的问题 能不能起码看一眼再说话?
中文
0
0
1
70
Xiuyu Li
Xiuyu Li@sheriyuo·
华为文化:汇报化、流程化、文档化 如何通过华为人格测试面:我是一个稳定、能吃苦、服从组织、重流程、低 ego、不想当领导的执行型工程师,多个测试必须前后一致不矛盾(否则挂掉、不予重测) 我能得到:签署《奋斗者协议》,自愿放弃年假获得年终奖
向阳乔木@vista8

这篇华为的论文把我读笑了,真把人类组织的那套东西都搬给AI Agent了。 本周Huggingface第三热门的论文。 AI翻译解读见评论区

中文
3
1
19
2.8K
hyhriber
hyhriber@hyhriber·
@NekoStranding 这个是随机微积分本身的问题,像metamath、Methlib这些证明库,它都没有形式化到伊藤积分这些随机过程,因为真的非常不容易。因此,如果你刨根问底,那手得刨出血,只能根据直觉经验和语义去演绎命题 最后是随机微积分在金融上本身也是有问题的,限制着用、不要执着show off,不然它就毫无卵用
中文
0
0
1
48
hyhriber
hyhriber@hyhriber·
@NekoStranding 这就导致错配:LLM严肃且“官方”的说明方式和荒谬内容的错配,实际上不值得信任,这个得你已经会了之后回去看才会发现 之后是随机微积分本身的问题。我以伊藤积分为例。你会见到很多δt = δ²W,但是有时可以取等、有时不能,你会觉得很杂糅。类似的情况有很多,如果底子不扎实,这就像变戏法一样
中文
1
0
1
69
毒猫猫 | 量化摸鱼师
毒猫猫 | 量化摸鱼师@NekoStranding·
各家顶流模型的刻板印象,总集篇! Claude: 神经质,无情的道德审判,品味倒是不错 ChatGPT: 过于关心你的精神状态,以至于有点变态 Gemini: 毫无保留的学术吹捧 DeepSeek: 国产之光、开源模范、便宜大碗,逼急了会喊「我操」
毒猫猫 | 量化摸鱼师 tweet media毒猫猫 | 量化摸鱼师 tweet media毒猫猫 | 量化摸鱼师 tweet media毒猫猫 | 量化摸鱼师 tweet media
中文
29
61
522
47.6K
hyhriber
hyhriber@hyhriber·
@nopinduoduo 为什么你们都急得好像不忙活着消耗token就要错过Gen-AI时代一样
中文
2
0
0
1.4K
我真的没有拼多多
我真的没有拼多多@nopinduoduo·
现在只要token没有花完,就喜欢让AI 尽情发挥: “我马上要睡觉去了,但是我还有大量的token没有用完,我希望能最大化的发挥作用,做一些对我有帮助的事情。 现在你读取我的个人画像,我obsidian中的文件,读取我近期/很久之前 想做未作的事情,去尽情的研究,去实践,去探索吧。 这样,明天早上我醒来之后,给我惊喜,报告,告诉我一切吧。 (btw,不要把我系统搞崩,不要删库,不要执行危险操作) ” —————— 以及: “为我扫描整个电脑,先扫描一些关键目录,然后再对这些磁盘信息进行扫描,跳过一些软件的安装目录,完善我的人物画像,我想为我的系统构建飞轮,请你完整的分析,并为我沉淀下来有价值的信息,根据获取到的信息,为我构建系统飞轮” —————— 还有没有尽情烧token 的行为?
我真的没有拼多多 tweet media我真的没有拼多多 tweet media
我真的没有拼多多@nopinduoduo

太厉害了, 直接让Claude code 基于电脑的数据,构建人物画像和系统飞轮。 数据不会说谎,这下我感觉CC比我自己更懂我了。 (大概CC 比人脑更优越的地方在于其上下文长度其实比人脑更大?) ADHDer 人群爱了,正好梳理了一下 那些 开了头 但远远没有做完的事情了。 看了一下给我的报告,以及给我的待办事项,真是说到心里去了。 这种感觉有点像在 cc 中输入 /insight 命令, 只不过,这次直接扫描的是你整个的电脑。

中文
17
28
210
46.2K
hyhriber
hyhriber@hyhriber·
@linexjlin 在指数坐标系下的线性外推,参考一下就行了,不过这个数量级倒是没有任何疑问,参数的数量级差异在0.5以上
中文
0
0
2
772
Line
Line@linexjlin·
GPT-5.5 ≈ 9T Claude Opus 4.7 ≈ 4T GPT-5.4 ≈ 2.2T Claude Sonnet 4.6 ≈ 1.7T 确实是有差距,中国才做到 1T+ , 美国已经做到 4-9T +。 模型的大小的差距反映的是模型训练的软硬基础设施的差距。
AI Dance@AI_Whisper_X

挺有意思的研究。 闭源实验室都对模型规模讳莫如深,但他们其实藏不住模型"知道什么"。而模型知道什么,恰恰就是参数量的指标。 核心逻辑:推理能力可以靠蒸馏压缩到小模型里,事实知识不行。一个模型记得多少冷门事实,直接跟它的参数量挂钩。 知乎博主李博杰为这个写了一篇小论文,构建了一套叫 IKP(不可压缩知识探针)的数据集:1400 个问题、7 层稀有度,扔到 27 家厂商的 188 个模型上跑了一遍,只看事实准确率。 结果在 89 个公开参数的开源模型上,准确率 vs log(参数量) 的拟合 R²=0.917,基本是一条直线。把闭源模型投影上去,规模就估出来了: GPT-5.5 ≈ 9T Claude Opus 4.7 ≈ 4T GPT-5.4 ≈ 2.2T Claude Sonnet 4.6 ≈ 1.7T Gemini 2.5 Pro ≈ 1.2T (90% 置信区间:0.3-3 倍规模) 另外两个发现也挺反直觉: 一是引用数和 h-index 不能预测一个研究者是否被前沿模型认识。两个引用数相近的人,模型给的回答可能完全不一样。它记的是有影响力的工作,不是论文数量。 二是事实容量不会被时间压缩。跨 3 年的 96 个开源模型,IKP 时间系数统计上为零(p<10⁻¹⁵),直接拒绝了 Densing Law 预测的 +0.0117/月衰减。benchmark 在饱和,但事实容量还在随参数继续扩张。 来源:知乎博主 李博杰 侵权联系删 arxiv.org/pdf/2604.24827

中文
21
50
338
142.5K
hyhriber
hyhriber@hyhriber·
@shengxj1 还原性物质捕捉自由基,抗老化是有些“以形补形”的,因为确实存在一些结论不一致的论文,对其效果保守地看就行 轻断食、甚至3天的断食效果会远远好于此,而且“挨饿”这东西,完全不增加消费,连学术献金的动机都没有
中文
0
0
2
229
hyhriber
hyhriber@hyhriber·
@NekoStranding 我知道,本意没想公开出来 我能做的就是保持描述是中性的,减少歧义描述,严肃问题给每个命题加序号,自己给出大致模型或算式让问题变封闭,用“##”、“#”或其他占位符做好分隔等
中文
0
0
1
83