backfire

646 posts

backfire banner
backfire

backfire

@studyouwei

PhD in information sciences, builder

انضم Mart 2013
859 يتبع100 المتابعون
backfire
backfire@studyouwei·
@mohumohumayu まゆさんの投稿を見るたびに、中国人の私にとっても新鮮な中国を見ることができます。本当にありがとうございます。私も中国の大学で数年間働いたことがあるので、まゆさんが中国の大学について書かれたことは、よく分かります。中国の大学は本当に働きづらい職場だと思います。小紅書では大学が緬北
日本語
1
0
3
377
まゆ
まゆ@mohumohumayu·
私は中国関連アカウント、世界旅行アカウントをはじめ、どこの誰かもわからない人から大量にブロックされていて、たぶんフォロワー数より被ブロック数の方が多いと思う。 確かに嫌われ者だけど、そんな私にも心があるんだよ。
日本語
7
0
60
3.4K
まゆ
まゆ@mohumohumayu·
引用投稿って本人に聞こえる声で世の中に向けて発信する行為であり、これを実生活に置き換えて想像みると、「この人キモい」とわざわざ本人に聞こえる声で話してそれに周辺が賛同している図でしょ? じゃあ今私がやっていることは陰口?でもさすがにキモいとまで言われたら私も気持ち悪いから。
まゆ tweet media
日本語
6
5
221
10.9K
backfire
backfire@studyouwei·
@Superdogie2020 @pangyusio 你说得是传统开发,比如界面上增加个什么按钮,算价格增加个什么逻辑。如果是机器学习/ai领域,恰恰是人类领域里秘方和黑逻辑最集中的领域。谁能知道把一堆像素做一些卷积操作可以用来识别图像?谁能知道把一堆矩阵运算乱练一通可以训练出远超人类智慧的ai? 如果不是因为开放性计算机根本不像今天
中文
1
0
1
141
地平线科技观察Over Horizon Tech Sight
@pangyusio 因为无秘密可藏,计算机是人类纯粹理念的映射,纯粹运行在逻辑中。其他所有和现实世界打交道的领域都不是这样。古有拿人炼铁铸剑,锋利无比,现有掺点稀土,性能暴涨,化学物理学可以做解释,但完全无法预测。你到哪说理去?
中文
1
0
6
503
Pangyu 胖鱼 🐠
Pangyu 胖鱼 🐠@pangyusio·
计算机这个行业,的确是当代所有工科里最开放、最真实、最先进的一个 很多人以为程序员的待遇好只是因为风口,其实背后有个更底层的原因——这个行业的文化本身就拒绝藏着掖着。 去看看传统工科。机械、电气、化工、材料……越老的师傅越吃香,每个人都把自己手里那点"核心技术"当成金疙瘩,捂得死死的,传徒弟还要留一手。 知识在这些行业里是高度私有化的,是用来换地位、换饭碗、换话语权的。 计算机不一样。 打开 GitHub,全世界最聪明的一批人,把自己最核心的东西免费扔出来,让所有人去用、去改、去骂、去 fork。 能跑就是能跑,跑不出来再多解释都是废话。性能好就是牛逼,性能差就是菜狗。 没有职称、没有辈分、没有"老师傅说了算"。 很多传统工科的论文,方法是一回事,实验数据是另一回事,复现是第三回事。 学术圈心照不宣,能用的成果其实少得可怜。 计算机领域虽然也有水文,但因为大量论文开源代码、开源模型、开源数据,整体可信度甩开传统工科一大截。 一个行业越开放,越敢把底裤露出来给人看,它的进步速度就越快,人才的天花板也就越高。 计算机过去三十年的爆发,根子就在这里。
中文
174
136
1.4K
195.2K
backfire
backfire@studyouwei·
@Mrfabul17638993 私は大学で副教授をとして働いたときに、毎月6000元くらいを手取しました。中国の公のところで働くのはそんな金額しかをもらえません。副業をやらないといけません
日本語
0
0
2
1.3K
Mr.fabulous
Mr.fabulous@Mrfabul17638993·
これが中国の現実。 病院勤務の知り合いの嬢も2,000元と言っていた。今はもっと低いかも。 どこで、どのような生活をするのかでも違うが日本人が2,000元/月で暮らすのはかなり厳しいと思う。
まゆ@mohumohumayu

どうしよう。心が折れそう。 今月のお給料が入ったんだけど、2000元しか入らなかった。家賃支払い、ピザ手続き、どうしたらいいの? 去年から私も社会保険料が引かれるようになるとは聞いていて、でも毎月天引きだと聞いていた。それで言われた金額ぐらいが毎月引かれていたから、それだと思っていた。

日本語
5
41
249
42.1K
backfire
backfire@studyouwei·
@0xLogicrw 就是用让gpt 写一堆规则呗。人写的规则不work那是因为人能写的规则数相对有限,ai就不同了,它可以轻松写出一堆可以覆盖各种场景的规则。我最近也在拿codex写pdf解析规则,我扔给它一堆pdf,让它只使用传统ocr,给我不断增加和改进规则,直到达到我满意的准速度。gpt其实为解释性"ai"创造了个新路子
中文
0
0
0
583
思维怪怪
思维怪怪@0xLogicrw·
OpenAI 后训练核心成员翁家翌(Jiayi Weng)以个人名义提出了一种名为「启发式学习」的强化学习新范式,并开源了全部实验代码。他用 Codex(GPT-5.4)反复玩 Atari 打砖块游戏,但 GPT-5.4 自始至终没有被重新训练过。真正在进步的,是 GPT-5.4 写出来的那套游戏策略代码。 流程是这样的:GPT-5.4 先写一版打砖块的 Python 策略,跑一局,看录像,找出哪里打丢了球,然后自己改代码再跑。经过几轮迭代,策略代码从 387 分涨到了 864 满分。全程没有任何神经网络被训练,纯靠 AI 反复修改 if-else 规则、调落点预测、加死循环检测。最终那套代码包含球路预测器、卡球检测器、回归测试和实验日志,已经长成了一个完整的软件系统。 这和传统强化学习的核心区别在于「学到的东西存在哪」。传统做法把知识压进神经网络参数里,人看不懂,学新任务还容易把旧的覆盖掉(即灾难性遗忘)。翁家翌的做法反过来:知识就是代码,人能读、能改、能加测试锁住,不会因为学新东西就丢了旧本领。 除了打砖块满分,他还在 MuJoCo Ant(模拟机器蚂蚁走路)上跑出超 6000 分的深度强化学习级成绩,在 Atari57 全套 57 个游戏上逼近了 PPO 基准。但翁家翌也明确画了边界:纯代码搞不定复杂感知任务,比如用 Python 写 if-else 去认图片。 他设想的终局是混合架构:底层用轻量神经网络负责视觉等感知,中层用启发式学习处理实时逻辑和安全规则,顶层由大模型审查日志、改代码,再周期性地用底层积累的高质量数据更新自身。过去手写规则之所以被淘汰,不是因为规则没用,而是人类维护不起。现在 AI 写代码够快够好,这条老路重新走得通了。
Jiayi Weng@Trinkle23897

Codex grew programmatic policies with no neural nets: max score on Breakout, and SOTA-level scores on MuJoCo. Maybe heuristics were not too weak. Maybe they were just too expensive to maintain. Maybe it's the next paradigm. trinkle23897.github.io/learning-beyon…

中文
57
225
1.5K
336.2K
backfire
backfire@studyouwei·
@DTH03597062 これはほんとに 食べたいですよね。もし赫老师は自分の店を開いて、これは一番人気のもろでしょう?100元でも絶対注文します
日本語
2
0
1
136
DTH 郝老师
DTH 郝老师@DTH03597062·
今天的晚餐是西红柿炒鸡蛋面 日本の納豆もそうだけど、色々料理したとしても結局これが1番美味いのではないかと感じてしまう王者感🫅 #自炊漢飯
DTH 郝老师 tweet media
日本語
11
8
153
5.5K
backfire
backfire@studyouwei·
After GPT and Claude, we may no longer need to train unexplainable neural networks for tasks that are seemingly doable via hand-crafted rules, for example, autonomous driving. Why don't we just send a big amount of camera images to codex and let it create a crazy set of rules
English
0
0
0
83
backfire
backfire@studyouwei·
Codex is unbelievably stupid today. Is it because everyone at OpenAI went out for the 5.5 party today ?
English
0
0
0
74
backfire
backfire@studyouwei·
@OhonoJP 我开始还以为700B的模型,勉强还能和gpt 5.0 mini 对标。后面一看原来是70B,还是llama 的微调,这玩意能不能打得过Qwen 3.5 7B都难说……
中文
0
0
0
379
大野人
大野人@OhonoJP·
理光建成了GPT-5級的日語LLM。 厉害不?我日! AI世界一夜之间成日美中三足鼎立之态势。 牛逼!!!
日経クロステック IT@nikkeibpITpro

リコーがGPT-5級の日本語LLMを完成させた xtech.nikkei.com/atcl/nxt/news/… 700億パラメーターを誇る「Llama-3.3-Ricoh」は、融資稟議など金融業務の自動化を実現。社員が「AIが部下として働く日が来た」と語るほどの完成度で…(2025年10月)

中文
32
3
107
75K
backfire
backfire@studyouwei·
@erchenlu1 现实是能准时发工资已经打败90%的公司了……
中文
0
0
1
902
卢尔辰
卢尔辰@erchenlu1·
教打工人识别特别抠门老板的公司,有一个最简单的方法,就是看办公室里的各种用品。 比如冰箱、空气净化器、吸尘器、微波炉、空调这些东西,是不是大量使用奥克斯、荣事达这类品牌。 如果办公室里的电子用品基本都集中在这两个品牌上,那这个老板大概率是一个特别会省钱、特别抠门的人。员工也大概率会被剥削的很惨。
卢尔辰 tweet media
中文
82
9
228
132.9K
backfire
backfire@studyouwei·
@yiran2037840 这个论文里作者测过的模型最大就1T,那个线性回归线最后一个点是1T,你不能说1T后的模型也遵循这个线性关系。所以无论他怎么测,无论测哪个闭源模型,都会得到1T左右的估计。懂机器学习的知道这叫过度拟合
中文
1
0
0
246
Yiran
Yiran@yiran2037840·
刚刚,一位博主对最近很火的“估算GPT-5.5和Opus-4.7参数量”的帖子提出了数值方面的质疑,该博主的结论为: GPT-5.5 ~1.5T, Opus-4.7 ~ 1.1T。值得注意的是该博主对“不可压缩探针”方法是认可的,仅修正了数值。 个人看法:即使数值下修,GPT-5.5参数量仍然远大于Opus的参数量。在此基础上,OpenAI仍然能稳定服务几乎所有C端用户。个人觉得Anthropic预留给普通C端用户(非Mythos模型)的算力远小于OpenAI预留给GPT-5.5的算力。 此外,我个人觉得OpenAI极有可能在“推理Infra”和“与Cerebras的合作”上有了显著的突破,从而实现高效复用KV Cache与算力资源,达到快速且稳定的服务质量。
Lawrence Chan@justanotherlaw

A recent viral paper claims to reverse-engineer the parameter counts of frontier models: GPT-5.5 = 9.7T, Opus 4.7 = 4.0T, o1 = 3.5T, etc. @ben_sturgeon and I investigated and found serious issues in the paper; fixing them gives GPT-5.5 as ~1.5T (90% CI: 256B-8.3T).

中文
8
5
56
25.5K
backfire
backfire@studyouwei·
@justanotherlaw @ben_sturgeon In the paper the largest models authors probed are 1Tish. That's why whatever models you try you always get this model is 1T and that model is 1T. This is something we machine learning people call "overfitting".
English
0
0
0
61
Lawrence Chan
Lawrence Chan@justanotherlaw·
A recent viral paper claims to reverse-engineer the parameter counts of frontier models: GPT-5.5 = 9.7T, Opus 4.7 = 4.0T, o1 = 3.5T, etc. @ben_sturgeon and I investigated and found serious issues in the paper; fixing them gives GPT-5.5 as ~1.5T (90% CI: 256B-8.3T).
Lawrence Chan tweet media
English
29
96
956
207.7K
backfire
backfire@studyouwei·
@browomo I bought your story until I saw this line "70B on bf16". Crypto guy knows nothing about llm.......
English
0
0
1
1.1K
Blaze
Blaze@browomo·
This Chinese developer launched Llama 70B locally on a MacBook on a plane and for a full 11 hours without internet ran client projects. He was sitting by the window on a transatlantic flight with a MacBook Pro M4 with 64 GB of memory. WiFi on board cost $25 for the flight. He declined. No cloud API, no connection to Anthropic or OpenAI servers, no internet at all. Just a local Llama 3.3 70B on bf16 and his own orchestrator script. The model runs through llama.cpp. Generation speed, 71 tokens per second. Context around 60,000 tokens. Memory usage, 48.6 GiB out of 64. Battery at takeoff, 3 hours 21 minutes. And he gave the orchestrator this system prompt before takeoff: "You are an offline orchestrator running on a single MacBook. There is no network. The only resources you have are local files in /Users/dev/work, the Llama 70B inference server at localhost:8080, and a battery budget of 3 hours 21 minutes. Process the queue at /Users/dev/work/queue.jsonl (one client task per line). For each task: draft → run local evals → save artefact to /Users/dev/work/done/. Save context checkpoints every 12 tasks so you can resume after a battery swap. Stop only on empty queue or when battery drops below 5%." So the system knows exactly what resources it is running on. It knows it has no connection to the outside world for the next 11 hours. It knows it has finite memory and a finite battery. It knows the human will not intervene until the plane lands. The system runs in 1 loop. Takes a task from the queue, runs it through inference, saves the artifact, writes a checkpoint. Task after task, just like that. And only when the battery drops below 5% does the orchestrator automatically pause, waits for the laptop to switch to the backup power bank, and continues from the last checkpoint. Here is what the system actually writes in his log during the flight: "saved context checkpoint 8 of 12 (pos_min = 488, pos_max = 50118, size = 62.813 MiB)" "restored context checkpoint (pos_min = 488, pos_max = 50118)" "prompt processing progress: n_tokens = 50 / 60 818" "task 37016 done | tps = 71 s tokens text → /Users/dev/work/done/proposal_westside.md" Outside the window, clouds, blue sky, and no WiFi. On the tray, 1 MacBook, an open terminal on 2 screens, and an inference server on localhost. From what I have observed, this is the cleanest offline AI workflow I have seen in the past year: 11 hours of flight, $0 for WiFi, and the entire client queue closed before landing.
Khairallah AL-Awady@eng_khairallah1

x.com/i/article/2049…

English
127
269
3K
1.8M
backfire
backfire@studyouwei·
@goodhunt Haha I was moved by this tweet. Let me know your WeChat and would like to be in your WeChat group
English
0
0
1
943
Hunter Bown
Hunter Bown@goodhunt·
鲸鱼兄弟们好,我是做 DeepSeek-TUI 的那个美国佬。 说真的,特别想跟国内的鲸鱼兄弟们一起混——但我的翻墙技能仅限于写代码,微信到现在都没搞定,属实有点丢人。 求各位大佬帮个忙: 1)帮忙转发扩散一下,让这个开源终端工具翻过高墙被兄弟们看到 2)顺手帮我验证个微信号,我想建个群,大家一起聊 DeepSeek、聊开源、聊怎么把 agent 做得更好 作为交换,我发誓死守 cargo install 这条安装路径,绝不让任何一个兄弟受 npm 的苦。 顺带一提,这段话是 DeepSeek 帮我润色的——感谢鲸鱼赐我流利中文 🙏 github.com/Hmbown/DeepSee…
中文
933
645
5.5K
994.5K
backfire
backfire@studyouwei·
@thcaroline2233 对于谷歌来说,ai对谷歌大头肯定不是app会员,而是对云服务业务的推动。就拿我们公司来说,因为每个月要做大量文本数据处理,必须找便宜稳定的大模型api服务商,能符合这个条件的真不多,谷歌云的vertex 是其中最靠谱的一家。vertex 用多了,公司几乎其他的一些云服务也全迁移到谷歌云了……
中文
0
0
1
704
Caroline(大叔)
Caroline(大叔)@thcaroline2233·
以谷歌为例,简单说一下美国的财报之殇。 谷歌第一季度净利润是626亿刀,去掉287亿刀的股权增值,运营利润是397亿刀。 其中capex买ai基础设备支出357亿刀。 假如把capex这一块直接剪掉的话,时机净利润是40亿刀。估计谷歌的股价会直接原地爆炸。 于是谷歌做了类似贾跃亭的操作,把capex平摊成6年,虽然它的gpu只能满负荷用3年,但是他们还是厚颜无耻的说成了6年。然后每一年的支出只算成1/6。贾跃亭当年就是这么财务创新的,现在的美国大厂都这样搞。 这样做财报,会有一个后果。后面的财务压力会越来越大,折旧成本每过一年都会成倍的增加。 短期内,财报是好看了,可这是以牺牲未来为基础的。合法,却不合理。 科技巨头已经从轻资产模式转型成重资产,和其他重资产公司不一样,他们手里的ai基础设施重资产,是3-4年会直接折旧归零的资产。每年都要投入巨量的资金去维持。 这场ai盛宴,到现在为止,最大的应用端口还是支付会员费,几百亿刀收入和七八千亿刀的投入,简直不是一个量级。 巴菲特情愿放弃这一场盛宴,也不愿意踏上这一班车,我认为他是智慧的。不要说他已经老了,他是半部美股史。在一个没有盈利终端的狂热行情里,理智是难得的品质。
中文
93
52
306
70K
backfire
backfire@studyouwei·
@mohumohumayu お疲れ様でした。先生は無事に契約更新ができて、ほんとに良かったです。今回の件、悪いのは人事の人だと思います。授業のことを何も知らないのに、教師解雇の権限を持つのは無理です。
日本語
1
1
1
153
まゆ
まゆ@mohumohumayu·
他の同僚や他部署の先生からも、温かい励ましを得た。学院長や学院書記も、本来なら見捨てても構わない私のような小さな存在に対し、立場上ゆるされる範囲で対応してくれた。 権力がものを言う組織の難しさの中、このクビ復活は少なくとも私にとって、山場であると同時に新たな友情の芽生えとなった。
まゆ tweet media
日本語
10
4
321
4.2K
まゆ
まゆ@mohumohumayu·
二週間前、居留許可期限が来れる前という最悪のタイミングで、もうクビが決まったも同然だった。 あとは4月末、つまり今週の学長会議でそれが決まるのを待つだけ、という時間の問題だった。 それが逆転を決め、なんとか復活できたようだ。多分もう大丈夫。 たかがクビ、けれど怒涛の二週間だった。
まゆ@mohumohumayu

クビになりそうだ。 これまでうちの学科と国際課の意思だけで私の契約は更新することができていたけれど、今年度から書記と学長が変わり様々なことが改悪されてきた。その一環として、今回のことが起きた。 主任も同僚も全力で私の味方になってくれているが、ダメかもしれない。

日本語
13
26
670
117K
backfire
backfire@studyouwei·
哈哈在codex里使用chatgpt pro的邪修:在codex 里打开它自带的浏览器,然后登陆chatgpt账号 ,在codex窗口里要求它自己解决不了的问题,使用browser user 在浏览器里问它的pro兄弟.......
中文
0
0
1
163
backfire
backfire@studyouwei·
@lidangzzz 这个课程开设往information sciences靠还说得过去,往cs靠有点扯
中文
0
0
0
1K
lidang 立党 (劝人卖房/学CS/买SP500/纳100/OpenAI/Anthrop第一人)
广东以色列理工大学,最近开了个“math+cs”专业,中文叫“数学与计算机”, 你点进去一看degree plan,一个“系统编程导论”,一个“数字系统与计算机架构”,一个“计算机组织与编程”,一个“操作系统”,还有几个“数学或计算机科学选修课”, 剩下的全是数学和物理课。 这就是典型的李鬼专业, 招了一堆数学phd当教职当教授,开课全是数学课,计算机的课只有四五门,一大半都是模糊不清的导论。 不得不说,这个学校有一点好,就是纯数学的专业开得非常全,哪怕一个“cs+math”的李鬼计算机专业,数学课居然比绝大多数百年名校数学专业的数学课开得还全面、还完整。 但是如果你奔着学计算机专业的兴趣,选这个专业,那就吃大亏了。
lidang 立党 (劝人卖房/学CS/买SP500/纳100/OpenAI/Anthrop第一人) tweet media
中文
39
13
188
124.9K
花叔
花叔@AlchainHust·
GPT-5.5自己给出的benchmark分数那么高,这被第三方一测咋这么尴尬
Arena.ai@arena

GPT-5.5 by @OpenAI is now live in the Arena, landing across multiple leaderboards. Here’s how it ranks by modality: - Code Arena (agentic web dev): #9, a strong +50pt jump over GPT-5.4 - Document Arena (analysis & long-content reasoning): #6, on par with Sonnet 4.6 - Text Arena: #7, Math #3, Instruction Following: #8 - Expert Arena: #5 - Search Arena: #2 - Vision Arena: #5 Strong, well-rounded performance, especially in Code (+50 pts vs GPT-5.4). Congrats to @OpenAI on the release. Full category breakdowns by modality in the thread.

中文
28
0
21
24.7K
backfire
backfire@studyouwei·
现在是不是是个大模型api服务商都是处于供不应求的状态?我的应用是调用gemini 2.5 flash,现在也一直报 “model deman is not available because of high demand" ,已经一个下午了,现在还没恢复
中文
0
0
1
67
backfire
backfire@studyouwei·
@yetone 做vibe coding的agent用
中文
0
0
0
509