
Erik Liu
474 posts

Erik Liu
@helloerikk0
https://t.co/NYHqQ6zFZ8 全栈工程师 AI架构师 连续创业 电签 虚偶 金融投研 量化 2026 all in AI 欢迎互关!
Chicago, IL Katılım Eylül 2013
218 Takip Edilen95 Takipçiler
Erik Liu retweetledi

this OpenClaw bot finds restaurants with ugly menus, rebuilds them as live web menus, and mails the owner a postcard...on autopilot.
here's how agencies can land recurring contracts with this system:
- scrapes every restaurant in a city in real time
- filters by review count + rating + last menu update + photo quality
- pulls the real menu items from the official site, PDF, or Google reviews
- samples the brand palette from the restaurant's own visual identity
- renders a 9:16 brand-matched menu, hosted live at a QR-accessible URL
- writes a personalized postcard referencing a real reviewer and a real dish
- mails it to the registered office addressed to the owner by first name
every step from discovery to brand-matching to outreach is automated.
reply "MENU" + RT and i'll send you a free guide so you can build this too
English

AI 写的中文,读两行就能认出来。
"三条反馈都很关键,我都接住。"
"迁移到我们现在的问题,就得到一个更锋利的重构:"
"你的直觉被数据验证了,比我预期的更干净:"
语法没错,意思也通,就是别扭。换模型、换 prompt 都去不掉。
我最近注意到这股味儿的真实身份:翻译腔。上面每一句都能翻回英文——"I caught all of them"、"a sharper refactoring"、"verified cleaner than I expected"。字是中文,骨架是英文的。
鲁迅和王小波骂了一百年的老问题,现在被 AI 批量生产出来了。但套路有限,最常见的四种:
一是物理动作描述思考。"接住"来自 catch,"锋利"来自 sharp,"不崩"来自 doesn't break。英文里有棒球和物理生活的支撑,搬到中文里就悬空了。日常说"收到"、"记下",不说"接住"。
二是形容词替读者先下判断。"逻辑很清晰:""问题很直接:"——后面的事实自己能让读者感受到清晰,形容词是多余的。
三是抽象名词做主语、形容词收尾。"工程上的现实比这些数字难看"——读完不知道哪儿难看。
四是有中文译法的英文词直接混用。context、state、cache 都有稳定对译,留着英文只让读者反复切换。
本质是同一个问题:AI 写中文时先用英文句法想清楚,再逐字换成中文。怎么改?别修修补补,重写。用中文里本来会怎么说,重新说一遍。
yage.ai/share/ai-chine…
中文

大叔大概找到 Marvell 為什麼離開 POET?
NDA 應該只是表象,真正的原因在「MARVELL 已經找到更好的心上人」,大叔很好奇Marvell 為什麼會直接跟 POET 分手?
表面上的說法是 CFO 大嘴巴、違反 NDA。但老實說如果你真的在產業待過,你會覺得這個理由哪裡怪怪的。在實務裡,如果你是我重要供應商,你出包
,通常會被要求做三件事之一:要求賠償、要求補償(價格、條件)或重新談合約條款。
直接終止合作,是最後一招。除非我已經不需要你了。
那 Marvell 是什麼時候「不需要 POET」的?
答案就在時間點。2026 年 4 月 22 日:
Marvell 宣布收購 Polariton Technologies(瑞士)
而就在這個收購案的後一天,Marvell 向 POET 發出終止通知。這是策略完成後的切割動作。把技術攤開來看,一切就通了。
POET 是「光互連的封裝平台」,它的角色像一張高階主機板,讓雷射、調製器、各種光學元件,可以被「模組化、大量整合」在同一平台上。
POET 的價值在於幫沒有垂直整合能力的客戶,把光學系統「拼起來」。
Polariton 不是做平台。它做的是全球速度最快、體積最小的等離子激元(Plasmonic)調製器,尺寸比傳統矽光子 小 10 倍以上、速度更快、功耗更低。
如果用比喻來說:
POET = 高階主機板
Polariton = F1 等級的超跑引擎
所以 Marvell 選擇了「引擎直上」,不再需要主機板,
Marvell 是DSP(數位訊號處理器)的大廠,他最想做的是把光學功能「直接吃進自己晶片裡」。
透過收購 Polariton垂直整合,Marvell 現在可以把超高速調製器直接整合進自家 DSP / ASIC,繞過 POET 的封裝架構。所以Marvell 不是因為 POET 出錯而離開,而是因為他已經找到一條「可以繞過 POET 的路」。
NDA 只是檯面上的理由,真正的原因是我已經不再需要你。
這對 POET 意味著什麼?
POET 當然有出來說他們還有「其他不具名訂單」。但大叔必須提醒很重要的話,當一個一線客戶,在技術上證明「我可以繞過你」,你的護城河就已經被挖出一條缺口。
這會帶來三個後果:
1. 在其他客戶面前,你不再是「唯一解」
2. 一旦大廠選擇內製或收購,你很難防
3. 你的平台價值會被質疑是不是「過渡性技術」
大叔最後的提醒(請看清楚)
這不是說 POET 一定不行,而是它的競爭優勢,比市場原本想像的「淺」。
在光通訊、矽光子、AI 光互連這個戰場,平台型公司最怕的就是「被垂直整合」。
marvell.com/company/newsro…

中文


大摩刚刚提出新的摩尔定律!
摩根士丹利最新研报《The Rowdy Robot》用一个公式重新定义AI时代:
i = w r²
•i:AI的真实智能/能力
•w:模型权重(参数量,代表训练规模)
•r:推理能力(Chain-of-Thought、Agent、多步推理等)
•r²:推理能力对算力的需求是平方级增长
未来AI的价值不再主要靠“把模型练得更大”(w),而是靠用得更聪明(r)。推理阶段的算力需求会爆炸式增长,远超训练阶段。
这相当于给AI行业立了一个“新摩尔定律”:推理算力才是长期最大金矿!
相关标的
•NVDA(英伟达):AI芯片霸主,训练+推理双龙头,仍是最大直接受益者。
•AMD:推理优化芯片强势,性价比高,适合大规模Agent部署。
•AVGO(博通):自定义ASIC芯片、网络和AI加速器,推理效率领先。
•TSM(台积电):先进制程代工,AI芯片制造核心。
•MSFT(微软)、AMZN(亚马逊)、GOOGL(谷歌):云服务巨头,推理算力需求最大用户和提供商。
•SMCI(超微电脑):AI服务器硬件,推理部署重要基础设施。
中文

Codex 已经可以支持 GPT-5.5 了,同时一口气推了五个能力升级,大方向是让 Codex 从“写代码的工具”变成“帮你干活的智能体”。
最大的变化是浏览器操控。Codex 现在可以直接操作网页应用,点击页面、填写表单、截图查看结果,然后根据看到的内容自己迭代,直到任务完成。比如你让它测一个注册流程,它能自己走完全程并告诉你哪一步有问题。
文档能力也升级了。Codex 现在能直接在 Microsoft Office 和 Google Drive 里生成电子表格、幻灯片和文档,质量比之前好不少。应用内还加了一个文件预览器,改完可以直接看效果、反复调整,不用来回切换。
电脑操控(Computer Use)跟着 GPT-5.5 一起增强,能看屏幕内容、点击、打字、在不同应用之间传递上下文。这个方向 Anthropic 去年率先推出,OpenAI 现在也跟上了。
比较有意思的是新增的“自动审查”(Auto-review)模式。以前 Codex 每走一步都要你点确认,现在它可以连续执行更长的任务链,遇到高风险操作时会启动一个独立的审查智能体来检查,通过了才继续。相当于自带了一个安全审计员,减少人工干预的同时控制风险。
另外,上周发布的图像生成模型 gpt-image-2 也整合进了 Codex,做应用原型、演示文稿的时候可以顺手生成配图,不用再切到别的工具。
OpenAI Developers@OpenAIDevs
With GPT-5.5, Codex now gets more of the job done across the browser, files, docs, and your computer. We've expanded browser use so Codex can interact with web apps, and test flows, click through pages, capture screenshots, and iterate on what it sees until it completes the task.
中文
Erik Liu retweetledi

🚀 DeepSeek-V4 Preview is officially live & open-sourced! Welcome to the era of cost-effective 1M context length.
🔹 DeepSeek-V4-Pro: 1.6T total / 49B active params. Performance rivaling the world's top closed-source models.
🔹 DeepSeek-V4-Flash: 284B total / 13B active params. Your fast, efficient, and economical choice.
Try it now at chat.deepseek.com via Expert Mode / Instant Mode. API is updated & available today!
📄 Tech Report: huggingface.co/deepseek-ai/De…
🤗 Open Weights: huggingface.co/collections/de…
1/n

English












