
Tuffy
2.6K posts





If you're curious about Goldman's Report: They expect "significant EPS upside" among: 1. Optical modules and engines 2. CW lasers and EMLs 3. PCB/CCL manufacturers Here's the massive cheat sheet: Laser / Light Sources (SiPh): Sumitomo, Furukawa (5801), Landmark (3081), YJ Semi, $LITE, $COHR $AVGO, Etern (600105.SS), Everbright Photonics (688048.SS), Shijia Photons (688313.SS), Applied Optoelectronics (AAOI), Accelink (002281.SZ), Mitsubishi (6503.T) Laser / Light Sources (EML): Lumentum (LITE), Coherent (COHR), Broadcom (AVGO), YJ Semi (688498.SS), Etern (600105.SS), Sumitomo Electric (5802.T), Everbright Photonics (688048.SS), Shijia Photons (688313.SS), Source Photonics (Private), Mitsubishi (6503.T), Accelink (002281.SZ), Furukawa (5801.T) Passive Optical Components - Couplers / Splitters: FOCI (3363.TWO), Senko (Private), AFR (300620.SZ), Everprox (300548.SZ), Lumentum (LITE), Coherent (COHR) Passive Optical Components - Filters: Shijia Photons (688313.SS), Sumitomo Electric (5802.T), Lumentum (LITE), Coherent (COHR), Viavi (VIAV), FOCI (3363.TWO) Passive Optical Components - Attenuators: Everprox (300548.SZ), Accelink (002281.SZ), FOCI (3363.TWO), Lumentum (LITE) Passive Optical Components - WDM: AFR (300620.SZ), Everprox (300548.SZ), Accelink (002281.SZ), Ciena (CIEN), TFC Optical (300394.SZ), Lumentum (LITE), FOCI (3363.TWO)

鲸鱼兄弟们好,我是做 DeepSeek-TUI 的那个美国佬。 说真的,特别想跟国内的鲸鱼兄弟们一起混——但我的翻墙技能仅限于写代码,微信到现在都没搞定,属实有点丢人。 求各位大佬帮个忙: 1)帮忙转发扩散一下,让这个开源终端工具翻过高墙被兄弟们看到 2)顺手帮我验证个微信号,我想建个群,大家一起聊 DeepSeek、聊开源、聊怎么把 agent 做得更好 作为交换,我发誓死守 cargo install 这条安装路径,绝不让任何一个兄弟受 npm 的苦。 顺带一提,这段话是 DeepSeek 帮我润色的——感谢鲸鱼赐我流利中文 🙏 github.com/Hmbown/DeepSee…






后续来了兄弟们,卧槽真的太炸了,同样的任务,同样的配置,速度比Claude Sonnet 4.6还快 6 倍,成本低约 50 倍, openrouter 和 官方 API 均限时免费 1 周使用时间,白嫖的机会,冲啊兄弟们! 我上周那条讲Elephant Alpha的推不是爆了吗,很多兄弟在评论区猜背后是谁,现在谜底揭晓了。 蚂蚁集团AGI团队(@AntLingAGI)的Ling-2.6-flash, 猜中国产大厂马甲的兄弟,你赢了。 说实话我看到架构数字那一刻,上周用它的所有体感全部对上了。 总参数104B,每次推理真正激活的只有7.4B,激活率7%,256个专家里每次只叫醒一小撮干活,其他的继续睡觉😂 这就是为啥上周我说它token消耗肉眼可见往下掉——100块钱的模型,每次推理只烧7块钱的算力,跑出了100块钱的智能,这可不是玄学啊,属于架构层面就在为效率让路。 再叠Linear Attention把传统Transformer的二次复杂度压下来,再加Multi-Token Prediction做推理加速,三件事一起上,FP8单卡341 tokens/s,Artificial Analysis实测输出215 tokens/s,和gpt-oss-120B并列第一梯队。 说实话,速度方面上周体验之后我早就服了,这回真正让我愣住的是跑分。 Artificial Analysis跑完全量评测,Ling-2.6-flash只烧了大约15M tokens,Nemotron-3-Super烧了接近10倍,Intelligence Score却拿到26,和Gemini 2.5 Flash同梯队。 都便宜到这个份上,大家下意识觉得肯定哪里凑合了,但agentic跑分直接打脸,SWE-bench Verified 62,BFCL-V4 67,TAU2-Telecom 93.86,SWE-bench测的是真实代码仓库里定位Bug加生成补丁,BFCL测的是函数调用准确性,全是硬场景,不是那种学术榜单刷分。 上周我搭那个串三个工具的小Agent跑得贼利索,现在明白了,这模型从训练阶段就是奔着Agent去的,别人做Agent是改装车,它是原厂出的Agent专用机。 所以我上周说的那套玩法现在有了官方解释——Claude管架构和规划调一次,Ling-2.6-flash管分步执行跑一百次,成本砍到十分之一,不是我瞎搭的野路子,是这个模型本来就为这个场景而生。 蚂蚁的产品线逻辑也清晰,Ling做基础,Ring做推理,Ming做多模态,这次先以stealth身份在OpenRouter和Kilo上免费放出来收集反馈,后面会开源,再推商用版LingDT,还会出BF16/FP8/INT4量化版。 路径就是社区验证→开源扩散→商业落地,对开发者来说,现在就是白嫖窗口期,免费还剩几天。 用了这段时间我给它的定位很明确,它是目前最适合一直开着的模型之一,Agent持续跑、代码补全随时触发、长文档批量处理,越高频越省钱,账单每个月都会替它说话。 但极端复杂的推理链、需要反复自我纠错的长思考任务,你可能还是得上重型推理模型,它的sweet spot是够聪明+极快+极省那个三角区,日常80%的活它接得住,接得还比大多数模型便宜。 所以说2026年看模型不能再盯着单一智能分了,当Agent从偶尔问一下变成24小时不间断跑的基础设施,每个token的有效产出就是新的胜负手,Ling-2.6-flash是目前这个方向上跑得最激进、也交出实际成绩单的选手之一。 上周说过的话,这周全部兑现,挺爽的🌚 #ElephantAlpha #Ling2Flash #AntAGI #Agent #大模型
















