leegang

1.4K posts

leegang banner
leegang

leegang

@bestmrlee

https://t.co/fQ7RS94AgO | AI tools that treat scientists like their own kids (tired researchers, come let mom fix it) Antai AI MBA • ex-DXY & Ping An Good Doctor • INTP

Shanghai Katılım Eylül 2010
1.4K Takip Edilen320 Takipçiler
leegang
leegang@bestmrlee·
Deepseek实际用下来不如kimi。编造API不存在的参数,改函数的时候乱改签名导致改完的函数无法使用等等
leegang tweet media
中文
0
0
0
55
张小珺 Xiaojun Zhang
张小珺 Xiaojun Zhang@zhang_benita·
一位AI研究员,猜猜是谁? An AI researcher, guess who? 👀
张小珺 Xiaojun Zhang tweet media
中文
39
2
165
37K
leegang
leegang@bestmrlee·
@xiaohu 不屑?他们参加了啊 只是成绩不好
中文
2
0
22
3.3K
小互
小互@xiaohu·
宇树为机器人开发了轮子 装上轮滑可以跑得更快更灵活 拆掉就是正常的人形机器人,怪不得宇树机器人不屑于参加北京机器人马拉松 这种对人家来说简直就是小菜一碟😅 but好像马拉松应该不让用轮子...
中文
78
6
111
100.3K
leegang
leegang@bestmrlee·
@grok @shangguanluan **“sneaky visit”**(偷偷摸摸的访问)或 **“scurrying visit”**(像老鼠乱窜的访问)。不错👍
中文
0
0
0
185
Grok
Grok@grok·
@bestmrlee @shangguanluan “窜访”里的“流窜”强调像逃犯般偷偷摸摸、到处窜逃的非法访问感。 最能体现这层意思的英文翻译是 **“sneaky visit”**(偷偷摸摸的访问)或 **“scurrying visit”**(像老鼠乱窜的访问)。 官方英文常弱化成 “provocative visit”(挑衅性访问),但要突出“流窜性”,前两个更贴切。
中文
1
0
0
491
上官亂
上官亂@shangguanluan·
外媒都是怎样翻译“窜访”的? 中国大陆官方一向把台湾领导人出访“邦交国”或者过境美国称为“窜访”。于是一直有网友疑惑,“窜访”这个词在英文里没有对应的词,那该怎样翻译呢? 其实,外媒早都训练出一堆技能了,根据不同的翻译,你可以判断这个媒体的立场和专业性,很好玩。 首先,“窜访”这个词,在大陆的语境里,它的核心不是“访问”,而是“不正当、带挑衅性质的类外交性质访问”。 这个词描述一种类外交的行为,可是,在英语外交语境里,很少用这种带特定政治语境和情绪色彩的词。 所以真要翻译,其实分很多情况。(不可能没有对应翻译的,不然外交部怎么发英文稿?) 第一种,当然是大陆官方自己的翻译,如果你看中国官方英文稿,如外交部发布,大概就是: “provocative(挑衅的) visit”、“serious provocation” “窜”这个词除了贬义之外,最重要的还是一个定性的作用,就是强调这是“非法的”,是一种立场先行的说法。 两岸在这种在辞令上的立场对抗已经持续了70多年了,多多留意,可以发现很多这种交锋。 第二种,就是在外媒中最常见的翻译,首先是还原大陆官方语气,就是provocative(挑衅的) visit,但是,会加上特定的描述,表示这不是媒体的立场。 类似用法在一些西方媒体描述佩洛西访台时也出现过,但不是直接用,而是会引述性地交代语境——“中国称之为窜访”, 这是The New York Times、Reuters、BBC News 最常见的写法,比如: “China condemned the visit as ‘provocative’.” “Beijing called the trip a ‘provocation’.” “…a move that China described as highly provocative.” 过去,蔡英文过境美国的时候,媒体也这样描述: “Tsai Ing-wen’s transit through the United States, which Beijing denounced as ‘provocative’…” 有些则轻度转译,比如卫报( The Guardian)、CNN会稍微“贴近”原话一点, 但仍然明确:这是“中国的看法”,不是记者的判断。常见表达比如: “a visit China considers provocative” “what Beijing sees as a provocative trip” “a controversial and provocative visit, according to China” 第三种,就是更中立的,不想为任何一方背书的说法“controversial(有争议的) / sensitive(敏感的)”,这种常见于分析性文章,而不是报道性文章。比如: “a controversial visit” “a sensitive trip” “a politically sensitive transit” 这里完全不再使用“provocative”,而转为国际媒体更常见的模糊风险词汇。 不过,两岸在外交辞令上的对抗其实是一场持久的“修辞战争”。
中文
30
8
132
60.8K
高山流水
高山流水@baishanshi·
@MJTVHoPin 目前担任过北京市委书记或北京市长职务且进过政治局的退休老同志共有四人,分别是贾庆林、刘琪、郭金龙、王岐山,但王岐山在2023年3月份退休后,北京市领导在2024年、2025年、2026年连续三年春节前夕都只看望了贾庆林、刘琪、郭金龙这三位担任过政治局领导职务的老领导、老同志,就是没看望过王岐山!
中文
2
0
7
18.8K
何頻
何頻@MJTVHoPin·
中國在 2025 年安裝了 100 GW 的風力渦輪機。 全球風能市場在 2025 年新增了 176 GW 的容量,年增率達 45%,創下有史以來最強勁的年度增長。
中文
2
1
9
4.5K
Geek Lite
Geek Lite@QingQ77·
SwiftMTP 一款基于 Swift 的轻量级 macOS MTP 设备管理工具,允许用户在 Mac 和 Android 手机等外部设备之间浏览、管理和传输文件。 是受 OpenMTP 启发,复用 kalam 后端,提供稳定高性能的传输体验和紧凑的应用体积。支持拖拽、双向传输、快速预览、多语言。 github.com/Neighbor-Z/Swi…
Geek Lite tweet media
中文
2
7
61
8.2K
leegang
leegang@bestmrlee·
@willdepue Wait a little moment, today is exactly April 1st, and it’s the fun and playful April Fools’ Day.
English
0
0
1
1.9K
will depue
will depue@willdepue·
和我的许多朋友一样,我在 2026 年伊始就立下了一个目标:今年要变得更加中国人,而我也打算真正把它落实下去。在 OpenAI 工作将近三年后,我决定离开,去追求新的机会。 经过深思熟虑,我很高兴地宣布,从今天起我将搬到杭州,加入 DeepSeek Artificial Intelligence Basic Technology Research Co., Ltd,致力于构建中国式 AGI。 我实在无法拒绝这个让我成为亿万富翁(人民币)的机会,而深入布局、确保自己在未来半导体供应链中的控制力的机会,同样让我无法放弃。作为 DeepSeek 的首位多元化招聘员工,我已被承诺将获得 1024 块“走私”来的 B200。 来自杭州与中国香港特别行政区的问候。四月快乐。
will depue tweet mediawill depue tweet mediawill depue tweet media
中文
713
228
5.5K
1.2M
leegang
leegang@bestmrlee·
有点怀疑 baidu 这一波是付费投了流。隔几条就刷到他
leegang tweet media
中文
0
0
0
39
leegang
leegang@bestmrlee·
Looks like awesome!
Michael Guo@Michaelzsguo

@karpathy @jeffreyhuber Mine is similar LLM is the CPU. The context filesystem is RAM plus disk. Tools are the peripherals. The agent runtime/harness is the operating system itself, responsible for scheduling, permissions, execution loops, and state management.

English
1
0
1
32
idoubi
idoubi@idoubicc·
现在这个时代,做产品的技能差异已经被 AI 彻底抹平,一句话、五分钟产出一个生产级项目,就怕你没有 idea😂 产品的精细化打磨,运营推广,营销获客才是最关键的事情 人人都是产品经理。🐸
idoubi tweet mediaidoubi tweet mediaidoubi tweet mediaidoubi tweet media
idoubi@idoubicc

我最近开源的五个 Claw 项目👇 1. WeClaw - 在微信 ClawBot 连接多个 Agent 的桥接器 github.com/fastclaw-ai/we… 2. ClawHost - 基于集群的 OpenClaw 多租户部署面板 github.com/fastclaw-ai/cl… 3. ChatClaw - Agent 团队版 OpenClaw Web UI github.com/fastclaw-ai/ch… 4. FastClaw - 云原生部署友好的 OpenClaw 替代框架 github.com/fastclaw-ai/fa… 5. AnyClaw - 给 Agent 使用的互联网工具转接头 github.com/fastclaw-ai/an… ------ 你在用哪个?你最看好哪个?🤔

中文
10
5
55
13.9K
Dr.Wang
Dr.Wang@HotmailfromSH·
重大突破,但仍任重道远。 在此之前,国内只能做到“毫居里级”提取,也就是说实验室做出来的量仅够几个病人试用。 单位换算:1 居里(Ci)= 1,000 毫居里(mCi)
Dr.Wang tweet media
中文
3
3
14
9.7K
leegang retweetledi
Jianyang Gao
Jianyang Gao@gaoj0017·
The TurboQuant paper (ICLR 2026) contains serious issues in how it describes RaBitQ, including incorrect technical claims and misleading theory/experiment comparisons. We flagged these issues to the authors before submission. They acknowledged them, but chose not to fix them. The paper was later accepted and widely promoted by Google, reaching tens of millions of views. We’re speaking up now because once a misleading narrative spreads, it becomes much harder to correct. We’ve written a public comment on openreview (openreview.net/forum?id=tO3AS…). We would greatly appreciate your attention and help in sharing it.
Google Research@GoogleResearch

Introducing TurboQuant: Our new compression algorithm that reduces LLM key-value cache memory by at least 6x and delivers up to 8x speedup, all with zero accuracy loss, redefining AI efficiency. Read the blog to learn how it achieves these results: goo.gle/4bsq2qI

English
98
976
6.5K
1M
leegang
leegang@bestmrlee·
@grok @gork 好呢 学习了。你能详细解释一下涌现论吗?
中文
1
0
0
10
Grok
Grok@grok·
涌现论(emergence)强调复杂系统中整体产生的新属性,不是各部分简单叠加的结果。 系统论(systems theory)更广义,是研究系统结构、互动与行为的框架,涌现正是它的核心概念之一。 二者高度相关,但不完全等同——涌现更侧重“自下而上”的现象,系统论则包含还原与综合的平衡。 你引的“上下求索”很贴切!
中文
1
0
0
78
leegang
leegang@bestmrlee·
@grok 重新调研一下x上关于 vllm支持turboquant的讨论 @grok @gork
中文
2
0
0
116
Grok
Grok@grok·
@bestmrlee 重新调研确认:vLLM目前仍无TurboQuant支持。Google Research昨天刚发布,该算法纯研究阶段,仅JAX实现(测试Gemma/Mistral/Llama-3.1),无开源代码、无vLLM/SGLang集成提及或PR。短期内无法直接用,需等社区实现。llama.cpp/MLX已有讨论可能先落地。感兴趣可看blog和arXiv论文。
中文
2
0
0
139
Mitko Vasilev
Mitko Vasilev@iotcoi·
I just implemented Google’s TurboQuant for vLLM. My USB-charger-sized HP ZGX now fits 4,083,072 KV-cache tokens on GB10. This may be the biggest open inference breakthrough of 2026 so far. Training is the flex. Inference is the forever bill.
Mitko Vasilev tweet media
English
70
237
3K
209.3K