夜谈

597 posts

夜谈

夜谈

@gntalktalk

提示词咒语工程师,神经网络病患者,ai硅基带路党

everywhere Katılım Ocak 2011
1.7K Takip Edilen1.9K Takipçiler
夜谈
夜谈@gntalktalk·
算力时代的“隐形冠军”:从低碳冷媒到AI芯片底材,和未来太空算力中心冷却过程玩家;拆解 Solstice (SOLS) 2026年,美股半导体板块的目光不再仅盯着芯片设计,资本市场开始向下挖掘。从霍尼韦尔(Honeywell)剥离出来的 Solstice Advanced Materials (SOLS) 成为今年表现最亮眼的标的之一。 这家看似化工的公司,实则精准踩中了 AI 算力、核能复兴、半导体本土化三大核心叙事。 1. 核心底座:半导体制造的“弹药”供应商 SOLS 不做芯片,但提供制造芯片必不可少的溅射靶材(Sputtering Targets)。 它的角色: 溅射靶材是芯片制造中物理气相沉积(PVD)工艺的“源头”。在真空环境下,通过离子轰击靶材,让其原子像喷漆一样精准沉积在硅晶圆上,形成导电层或阻挡层。 技术门槛: 半导体级靶材要求 99.999% (5N) 以上的极端纯度。随着先进制程(3nm/2nm)的演进,这种高纯材料的专利保护和工艺壁垒极高,是典型的“耗材型”刚需。 2. 增长曲线:AI数据中心(AIDC)的冷却救星 AI 芯片(如 NVIDIA B200)功耗突破千瓦,传统风冷已达上限。SOLS 的 Solstice E-Cooling 系列产品将公司带入了液冷核心供应链。 两相浸没式/冷板技术: 利用 HFO(氢氟烯烃)分子在低温下相变的特性,其散热效率远超水冷。 核心优势: 具备极高的绝缘性(漏液不短路)和低 GWP(全球变暖潜值小于 1)。对于追求碳中和的科技巨头而言,这是从法律合规到技术实现的最优解。 3. 未来叙事:从轨道计算到核能链条 SOLS 的野心不止于地面。 太空数据中心: 在真空环境下,散热只能靠热辐射。SOLS 的低压制冷剂由于相变效率高、重量轻、化学性质稳定,正成为轨道 AI 算力热管理的关键研究方向。 铀转化业务: SOLS 运营着美国境内唯一的铀转化业务,使其在核能复兴和能源安全领域具有无可替代的战略地位。 4. 财务与市场逻辑 营收结构: 目前 70% 左右的收入仍来自传统冷媒业务(现金流),但约 11% 的半导体业务却是主要的增长引擎(2025 年末同比增长近 20%)。 估值重塑: 市场已将其从“传统化工股”重新定义为“AI 基础设施股”。年初至今 67% 的涨幅,反映了资本对其在先进制程耗材与液冷赛道稀缺性的溢价。 总结: Solstice (SOLS) 是典型的“铲子股”。它不直接参与芯片算力竞赛,但无论 AI 芯片如何迭代,或者算力中心如何部署(无论是地面还是太空),它所掌握的高纯材料和热管理分子,都是这场硬科技竞赛中绕不开的物理基础。 免责声明:本人持有文章中提及资产,观点十分主观,非投资建议dyor
夜谈 tweet media
中文
0
2
7
768
夜谈
夜谈@gntalktalk·
今天 Microchip Technology Incorporated 因推出“Plug-In Timing Module”股价大涨,市场开始重新关注一个长期被忽视的赛道:timing(时钟/时间同步)。 一、Timing到底是什么? 一句话:Timing不是“发一个频率”,而是让一个复杂系统长期保持统一时间。 在AI数据中心和5G网络中: 数千到数万节点同时工作 所有设备必须纳秒级同步 如果不同步: AI训练效率下降(All-Reduce失效) 网络调度混乱(5G协同失败) Timing是系统稳定运行的底座,而不是可选功能。 二、Microchip这次做了什么? 核心产品:Plug-In Timing Module(可插拔时序模块) 过去Timing以IC形式存在焊在主板上强依赖定制设计,现在模块化(类似内存条/光模块)可插拔、可升级,标准化部署 这一步决定了ASP提升客户切换成本上升,且更容易进入数据中心标准架构 三、为什么Timing在AI时代变得更重要? 因为AI和5G都是分布式系统,而分布式系统最怕时间不同步。 1)AI数据中心 GPU规模持续扩大 通信依赖严格同步 节点越多 → 时钟偏差越大 jitter(抖动)直接影响带宽和效率,Timing直接影响GPU利用率和集群上限 2)5G / 未来6G 基站需要协同发射依赖IEEE 1588(PTP)同步,时间从“辅助信号”变成“协议核心” 3)边缘AI 节点分散同步复杂度进一步上升Timing成为系统级瓶颈之一 四、这个赛道的真实门槛 表面简单,实则复杂。 难点不在单点技术,而在三层叠加: 1)源头精度(oscillator) 温度、电压、老化都会引起漂移需要ppb级稳定性 2)网络同步(核心难点) 延迟、路径变化、抖动需要实时补偿,这是“算法 + 硬件”的系统问题 3)信号质量(jitter控制) 高速通信对抖动极其敏感,涉及模拟设计、电源噪声、封装 因此,不难做一个能用的,但很难做一个系统级、长期稳定的。 五、为什么这是一门好生意? Timing的特点是收入占比低但系统地位极高。在 Microchip Technology Incorporated 内部:timing业务占比大约 3%–8% 但它具备三个关键属性: 1)不可替代 系统一旦设计进去替换风险极高,验证周期长 2)高粘性 通信/数据中心客户极度保守,一旦进入,很难被替代 3)可升级 从IC → 模块 → 系统,这是估值提升的核心路径 六、竞争格局:三种不同路径 这个赛道没有单一赢家,而是分层竞争。 1)Analog Devices,系统层主导者 优势: 模拟设计能力最强 timing + RF + 电源完整链条 深度参与通信和数据中心 2)Microchip Technology Incorporated模块化推进者 优势: 产品线齐全 客户基础广 推动timing模块标准化 3)SiTime Corporation器件层颠覆者 优势: MEMS振荡器 替代传统晶振 Microchip这次上涨,意味着市场可能开始承认AI不仅是GPU,还有底层同步系统;如果进入hyperscaler,可能成为数据中心标准组件 总的来说,Timing是一个典型的: “收入小,但决定系统上限”的赛道 Microchip这次做的事情,本质是试图把“时间同步”从一个芯片问题,变成数据中心的标准基础设施层 如果成功这不是一个产品升级,而是一个位置升级 而在这个位置上真正的竞争,不是精度,而是谁控制系统的时间规则 免责声明:本人观点十分主观,非投资建议dyor
夜谈 tweet media
中文
0
0
0
310
夜谈
夜谈@gntalktalk·
Teledyne (TDY) 刚交出了一份不错的 Q1 成绩单。不仅 EPS ($5.80) 和营收 ($1.56B) 双双击败市场预期,其股价今年以来 27.4% 的涨幅也跑赢了大盘。 以下是这份财报背后最值得关注的要点: 1. 国防与空间传感的“订单爆发” Teledyne 正在吃满全球安全局势紧张的红利。其无人化系统(如 Black Hornet 4 纳米无人机、Rogue 1 自杀式无人机)和反无人机传感器需求激增。更核心的是,TDY 几乎垄断了空间发展局 (SDA) 所有的探测器订单,这为其提供了极高的业绩确定性。 2. 积压订单揭示的“增长后劲” 衡量这类硬科技公司,Book-to-Bill (订单出货比) 是关键。TDY 本季该指标达到了 1.16,成像板块更是高达 1.38。这意味着订单进来的速度远快于交付速度,未来几个季度的营收已经提前锁入“保险箱”。 3. 工业周期的拐点确认 此前市场担心的半导体检测和医疗 X 光业务(工业机器视觉)已经熬过了最差的时候。本季管理层确认这些板块已实现同比正增长,这意味着 TDY 正在从单纯的“国防避险股”转向“国防+工业复苏”的双引擎驱动。 4. 财务结构的“进击信号” 目前 TDY 的杠杆率已降至近五年最低,账面现金充裕。在电话会议中,管理层明确表示将开启新一轮的 M&A (并购)。考虑到其历史上有过成功整合 FLIR 的记录,外延式增长将是下半年的核心看点。 总结:逻辑比涨幅更重要 TDY 的强势并非单纯靠宏观红利,而是其在精密传感器领域的极高定价权。在当前“代理人战争+AI 自动化+卫星组网”的大背景下,TDY 正在演变成一家具有高护城河的防御性成长公司。 风险提示: 尽管 Stifel 已将目标价上调至 $750,但由于年初至今涨幅巨大,需警惕下半年外汇波动对指引的潜在冲抵。 免责声明:本人观点十分主观,非投资建议dyor
夜谈 tweet media
中文
0
0
1
200
夜谈
夜谈@gntalktalk·
财报透视:WST 暴涨 14%,揭示医药供应链的“AI 加速”逻辑 在刚刚发布的 2026 财年第一季度财报中,West Pharmaceutical Services (WST) 以超越市场预期 27% 的盈利表现震惊了华尔街。作为制药行业的“包装收费站”,WST 的这份财报远不止数字增长那么简单,它实质上是生物医药行业进入“商业化收割期”的强烈信号。 核心亮点:GLP-1 引发的结构性红利 WST 本季营收达 8.449 亿美元,同比增长 21%。其爆发力主要源于: 重磅药物放量: 以 GLP-1(减肥/糖尿病药物)为首的注射剂需求激增,直接带动了高价值(HVP)包装组件和自助注射设备的订单。 产能释放: 欧洲生产线爬坡效率超预期,成功承接了下游药企全球扩产的订单压力。 利润结构优化: 随着复杂药物占比提升,运营利润率从 15.3% 跃升至 21%,体现了极强的议价权。 深度解读:AI 究竟在其中扮演什么角色? 虽然 WST 是一家物理制造企业,但其业绩弹性本质上是 “AI + 医疗” 效率红利的终端体现: 从“出药率”到“上市率”: AI 通过蛋白质折叠预测和模拟筛选,显著提高了新药研发的成功率。这意味着更多高价值、复杂的生物药剂(如多肽药物)走出了实验室,进入了 WST 的包装流水线。 全产业链提速: AI 不仅加速了药物发现,还通过优化临床设计和申报流程,压缩了新药从获批到大规模上市的时间窗。WST 订单的“陡峭”增长,正是这种行业节奏变快的物理映射。 交付方式的智能化: 为了延长专利期和提升合规性,药企正加速将传统剂型转化为智能交付设备。AI 驱动的数字医疗趋势,正让 WST 的产品从“耗材”变成“精密系统”。 策略思考 对于宏观投资者而言,WST 的表现是一个明确的信号:AI 对医药行业的改变已不再停留于研发端的叙事,而是开始转化为供应链上的实打实订单。 当市场还在争论 AI 算力时,医药供应链中的“核心收费站”已经开始享受 AI 带来的商业化加速红利。只要新药上市的节奏持续被技术手段压缩,这类掌握精密交付关卡的公司,将持续展现出超越周期的确定性。 免责声明:本人观点十分主观,非投资建议dyor
夜谈 tweet media
中文
0
0
5
9.2K
夜谈
夜谈@gntalktalk·
Onto Innovation最近入股 Rigaku Holdings 27% 股权,这是一次非常明确的战略转向:从“表面检测”走向“3D结构检测”,本质是在卡位先进封装时代的工艺控制入口。 Onto的业务核心是半导体制造中的process control,也就是检测(inspection)、计量(metrology)、封装光刻和软件系统。它决定良率,和klac一样,是典型的“复杂性收费者”。随着工艺从2D走向3D,这类公司的重要性正在系统性提升。 过去,检测主要依赖光学和电子束,解决的是“看得见”的问题。但在HBM、CoWoS、chiplet和混合键合等结构下,缺陷越来越隐藏在内部,传统方法开始失效。X-ray成为必需工具,这正是Onto入股Rigaku的核心逻辑——补齐内部检测能力,从而覆盖“表面+内部”的完整检测链条。 从市场结构看,Onto未来真正的机会不在大盘,而在结构性细分。 先进封装检测的增速高于行业平均,而涉及3D结构(如X-ray、混合键合检测)的细分领域可能更高。公司当前业务重心已经明显向先进封装倾斜,这使其增长弹性显著高于行业平均。 竞争格局上,行业由 KLA Corporation 主导,市占率超过一半,是标准制定者;Applied Materials 和 ASML 等大型设备商具备跨界能力,可以通过整线方案压制单点供应商;而Camtek、Nova等公司则在细分领域与Onto直接竞争。Onto本身处于中间位置:产品线不够全面,但在先进封装环节具备一定深度。 其优势在于提前卡位先进封装,产品结构向高增长区域集中,同时具备一定技术门槛和盈利能力;但劣势也很清晰,包括客户绑定较弱、系统能力不完整,以及在部分高端检测能力上仍落后于龙头。整体来看,护城河处于中等水平,尚未形成不可替代性。 决定公司未来地位的关键变量是混合键合。 随着互连从bump走向直接键合,对overlay精度和界面缺陷控制的要求大幅提升,检测和计量的重要性显著上升。Onto在overlay和先进封装检测上已有基础,并通过X-ray补齐能力,因此可以覆盖混合键合检测链的大部分环节。该技术有望在未来3–5年持续推动其相关业务高于行业增速。 Onto的投资逻辑并不完全跟随半导体周期,而在于是否能够从先进封装中的“参与者”,升级为3D结构检测中的“关键节点”。混合键合决定其能否获得稳定超额增长。如果能够在X-ray和3D检测上建立能力闭环,其护城河有望明显加宽;反之,则仍将处于被KLA压制、被大厂边缘化的中间位置。 本质上,这家公司正在从一个设备供应商,向“复杂性控制入口”转型。能否完成这一转型,决定了它未来5年的上限。 免责声明:本人持有文章提及股票,观点十分主观,非投资建议dyor
夜谈 tweet media
中文
0
4
24
17.6K
夜谈
夜谈@gntalktalk·
穿透财报:丹纳赫(DHR)微跌背后的 AI 生物革命伏笔 在今天2026 财年第一季度的财报发布后,丹纳赫 (DHR) 的股价表现并不兴奋。 总营收 $59.5 亿略逊于预期,核心销售额仅增长 0.5%。 但生物技术(Biotechnology)板块 7% 的核心增长正释放出一个市场可能忽略的信号:AI 驱动的生命科学大周期,已经完成了从理论实验到物理实验的初步传导。 市场对营收的担忧主要源于两点: 业务对冲: 尽管生物工艺业务复苏强劲,但由于后疫情时代呼吸道检测需求常态化,诊断业务(Diagnostics) 核心销售额下滑 4.0%,直接抹平了前端研发需求的增量。 传导时滞: AI 药企目前仍处于模型训练与软件优化阶段。从 AI 筛选出海量候选药物,到实验室物理通量遇到瓶颈并触发硬件集采,存在 2-3 个季度的转化周期。 但在 AI 驱动的高通量研发周期中,丹纳赫扮演的是底层架构师的角色: 传感器: Leica 显微镜与 Beckman Coulter 的精密设备负责生产 AI 训练所需的“高质量生物燃料(数据)”。 执行器: 当 AI 发现药物的速度呈指数级增长时,丹纳赫的自动化工作站是解决“物理验证瓶颈”的唯一方案。 工业化: Cytiva 提供的生物工艺解决方案,是将 AI 设计的分子转化为规模化产品的必经之路。 对普通投资者来说,预判爆发点可能是最难,但也是alpha最大的机会。其中,资本流向: 监控 Biotech的资金是否更多的转向自动化实验室验证;以及关注试剂耗材增长可能是重要的信号。 丹纳赫 目前正处于 “范式转移”的黎明期。它现在的状态极像 2022 年初的电力基础设施股:AI 对电力的饥渴已成共识,但电网改造的订单尚未体现在报表上。 对于长线投资者,本季财报 展现的 Biotechnology 逆势复苏 才是最核心的逻辑锚点。当物理世界的自动化赶上数字世界的算法速度时,丹纳赫的护城河将展现出极高的溢价。 免责声明:本人持有文章提及股票,观点十分主观,非投资建议dyor
夜谈 tweet media
中文
0
0
0
175
中本麻三
中本麻三@harry03994688·
AMD的优势: 1. TSMC的高良率: > 70% 2. Chiplet 设计的low cost 3. 高核心数量 INTC: 1. 美国fab
中文
17
3
257
81.3K
夜谈
夜谈@gntalktalk·
USA Rare Earth 今天宣布以约28亿美元收购 巴西的重稀土矿Serra Verde, 这是美国稀土供应链重构的一个重要的节点。 交易结构是300百万美元现金 + 大量股票。 这是现金紧张但试图通过资本运作构建平台的整合项目。目标不是多一个矿,而是逐步拼出一个产业链整合的闭环体系。 Serra Verde属于离子吸附型重稀土矿,这类资源在全球范围内极其稀缺,是高性能永磁材料的关键输入,直接对应电动车、电机、风电和军工需求。 稀土产业链可以简单分成三段:资源开采、分离精炼、材料与磁体制造。过去市场习惯把注意力放在第一段,但实际利润和壁垒集中在中游。原因很简单:有矿不等于能用。不同矿源的杂质谱不同,能否稳定分离出高纯度稀土元素,并在成本、收率、环保约束下实现工业化连续运行,才是核心能力。 这也是为什么全球稀土格局长期呈现出一个不对称结构:资源分布相对分散,但分离与精炼高度集中。 如果用半导体做类比,矿山更像硅矿,而分离与纯化更接近工艺控制层。 Solvay、Carester、Lynas 这类公司之所以重要,是因为它们掌握的是流程窗口、萃取体系、杂质控制和质量一致性,而不是单点设备。这种能力往往来自长期积累,很难快速复制。 再往下一层,是从氧化物到金属、合金,再到磁体的制造过程。Less Common Metals、VAC,以及 MP Materials 正在建设的磁体平台,都属于这一段。这一环节的难点不在于“能不能做”,而在于能否满足终端应用对性能、寿命和一致性的要求。汽车和军工客户要的不是原材料,而是可验证、可复现的性能曲线。 从这个角度看,USA Rare Earth 收购 Serra Verde,并不是终点,而是补齐资源端之后,向中游能力延伸的一步。它此前收购 Less Common Metals、投资 Carester,本质上是在往“分离 + 金属化 + 磁体”的链条上补能力。 产业链的瓶颈有如下几个: 第一,是重稀土分离能力。这是当前全球最硬的约束之一,直接决定高端磁体的供给上限。 第二,是从氧化物到金属和合金的工业化转化能力。这一段往往被忽视,但很多供应链卡点正集中在这里。 第三,是高性能磁体的制造与认证体系。能进入汽车和军工体系的厂商,数量远少于能生产材料的厂商。 第四,是回收与再循环。这一环节还未成为主导,但在长期供需约束下,重要性正在快速上升。 这笔交易本身并不改变这些结构,但强化了一个趋势:稀土产业正在从“资源竞争”走向“工艺与体系竞争”。 美国正在尝试构建一条不依赖中国的完整供应链,而路径不是简单多挖矿,而是通过并购和资本整合,把资源、分离、材料逐步拼接起来。 对投资而言,这意味着一个重要的认知修正:最有价值的资产,未必是拥有最多矿的公司,而是那些能够把不同来源的稀土,稳定转化为可用磁材的公司。分离纯化是第一层利润池,金属化与磁体制造是第二层。 总的来说这笔交易的意义是: 稀土行业开始进入“中游为王”的阶段,而真正的Alpha,不在矿,而在把矿变成产品的那一段能力。 免责声明:本人观点十分主观,非投资建议dyor
中文
0
0
1
355
夜谈
夜谈@gntalktalk·
Honeywell昨天宣布以14亿美元出售其生产力解决方案业务(PSS),这是一次非常典型的工业价值链“上移”动作。 PSS业务主要是仓储与制造场景中的数据采集设备,包括扫码枪、手持终端、标签打印等。这类业务的共同特点是:技术壁垒不高、差异化有限、定价权弱、与AI关联度低,更接近“执行工具”而非“系统核心”。 Honeywell的动作背后,是其近年来持续推进的战略收缩与聚焦:从一个业务分散的工业集团,转向以自动化、控制系统和工业软件为核心的高附加值平台型公司。公司主动剥离低护城河业务,将资源集中到三个方向:控制系统、自动化系统以及工业软件平台。 从业务结构看,控制系统是核心基础。以DCS、PLC、SCADA为代表,这一层直接控制物理世界的运行,是工厂、电厂、化工系统的“操作系统”。其护城河来自极高的切换成本、长期客户绑定以及对安全和稳定性的极致要求。这一层短期内几乎不可替代。 自动化系统位于其上,承担的是系统集成与执行功能,包括仓储自动化、生产线自动化、能源调度系统等。与PSS这类单点设备不同,这一层卖的是“整体解决方案”,具备更高的复杂性与价值密度,也是Honeywell当前的重要利润来源之一。 再往上是软件与数据平台,以Honeywell Forge为代表。这一层开始整合设备与系统数据,提供预测维护、能耗优化、运营调度等功能,是数字化与AI能力的承载基础。 如果把整个体系抽象出来,可以看成一个从“物理控制”到“数据再到决策”的层级结构:控制系统提供现实接口,自动化系统负责执行,数据平台完成整合,而AI模型层则负责预测与优化。 这正是nvda黄仁勋挂在嘴边的数字孪生的真实结构。 数字孪生并不是简单的可视化,而是一个闭环系统:实时映射现实状态、模拟未来、优化决策,并将结果重新作用于物理世界。在这个闭环中,控制系统与自动化系统是不可或缺的“现实锚点”,没有它们,数字孪生无法落地。但真正的价值,逐渐向上集中到数据与AI决策层。 从这个角度看,Honeywell出售PSS是一个非常清晰的信号:放弃数据入口的低价值硬件,转向控制权、系统能力以及数据与软件层。这不仅是公司战略调整,也反映了整个工业体系的价值迁移方向。 工业领域与云计算有相似之处,但也存在关键差异。云计算中,硬件最终被抽象为基础设施,而软件平台成为价值中心;而在工业体系中,由于涉及真实世界的控制,控制系统无法被绕开,这使得其仍然保有长期价值。但其利润空间与定价权,取决于是否能够向上延伸到数据与AI层。 因此,这次交易的真正意义不在于出售了一个业务,而在于确认了一条路径:工业价值正在从设备层,向系统层,再向数据与AI决策层迁移。控制系统是入口,自动化是执行,数据是基础,而AI闭环将成为最终的价值核心。 换句话说,Honeywell正在从一家设备与系统公司,转向一家试图掌握“工业操作系统 + AI决策能力”的平台型公司。能否完成这一跃迁,将决定其未来十年的护城河强度与价值高度。 免责声明:本人观点十分主观,非投资建议dyor
中文
0
0
1
168
夜谈
夜谈@gntalktalk·
最近,BlackBerry宣布其QNX软件将与NVIDIA的工业AI平台进行集成,这一消息直接推动股价出现明显反应。 这次合作传达了一个重要的信号:BlackBerry正在向AI基础设施中的安全与实时控制层转型。 BlackBerry早已经不是大家印象中的手机公司,其业务结构主要分为两块:一是QNX为核心的IoT业务,二是网络安全(Cybersecurity)。 其中,QNX所在的IoT业务已经成为公司的核心增长引擎,近几个季度占总营收大约50%上下,并且在利润结构中占比更高。相比之下,传统网络安全业务增长较慢。 QNX本质上是一个嵌入式实时操作系统(RTOS),广泛应用于汽车、工业设备、医疗设备等对稳定性和安全性要求极高的场景。它的特点是“绝对可靠 + 可认证 + 长生命周期”。在传统周期中,这类系统的增长通常是温和的,因为它依赖的是硬件出货,而不是软件渗透。 但AI正在改变这一点。 随着智能系统从“辅助功能”变成“核心控制”,对底层操作系统的要求发生了质变。自动驾驶、工业机器人、边缘AI推理设备,本质上都需要一个能够在高负载、低延迟、强安全约束下运行的系统环境。这时候,QNX的价值开始从“稳定性工具”变成“AI系统不可替代的基础层”。 这也解释了为什么BlackBerry当前呈现出一个看似矛盾的估值结构:当前PE在50倍以上,而forward PE却只有20倍左右。这并不是简单的“市场情绪”,而是一个典型的“盈利切换周期”。 当前利润仍然被两点压制:一是网络安全业务的低增长甚至收缩,二是IoT业务仍处于投入期,包括研发、生态扩展以及与大厂合作的前期成本。这导致当前利润基数较低,从而推高了静态PE。 但市场定价的核心不是当前利润,而是未来利润结构的变化。随着几个关键变量的变化,forward PE快速下降就变得合理: 第一,QNX所在的IoT业务在汽车和工业AI中的渗透率正在提升,尤其是在智能汽车域控制器和工业边缘计算节点(机器人)中,其“软件单车价值”有上升空间。 第二,与NVIDIA的合作意味着QNX开始嵌入到AI算力生态中,而不仅仅是作为车厂的软件组件存在。一旦进入AI平台层,它的角色更接近“基础设施的一部分”,而不是单一客户绑定的软件供应商。 第三,QNX的商业模式具有很强的“递延性”和“规模放大效应”。设计进入(design-in)后,收入通常在多年内逐步释放,而AI系统的复杂性提升,会提高单设备的软件价值。 第四,网络安全业务如果完成收缩或重组,其对利润的拖累会减少,从而使整体利润结构更加清晰。 从这个角度看,bb的“温和增长”更多描述的是当前财务表现,而不是未来增长路径。市场实际上是在为一种潜在的结构性变化定价:BlackBerry是否能够从一个“低速软件公司”,转变为“AI系统中的关键底层组件供应商”。 如果这个转型成立,那么QNX的定位会更接近一种“复杂性收费点”(complexity toll collector)。它不直接参与AI模型竞争,也不依赖应用爆发,而是绑定在系统复杂度提升这一长期趋势上。这种位置,在半导体设备、EDA、测试等领域已经被证明具有很强的定价权和稳定性。 但需要注意的是,这一逻辑仍然处于“验证阶段”,而非已经兑现。当前QNX虽然占营收约一半,但其增长仍然主要来自传统汽车电子,而非AI直接驱动。与NVIDIA的合作,更像是一个“进入新范式的入口”,而不是已经形成规模的业务。 因此,BlackBerry当前的估值,本质上是一个典型的“结构性切换定价”:市场在用较高的当前估值,去押注未来利润结构的改善,以及QNX在AI时代中的重新定位。 如果AI真的推动高通量设备、自动化系统和智能终端的爆发,那么QNX这类底层系统的需求可能会出现加速,而不是线性增长。一旦这一点被验证,当前的forward PE并不昂贵,甚至可能是低估的。 但在那之前,它仍然是一笔“需要时间兑现”的交易。 免责声明:本人观点十分主观,非投资建议dyor
中文
0
0
1
209
夜谈
夜谈@gntalktalk·
作为全球生命科学技术的领导者,丹纳赫定于2026年4月21日盘前公布财报。 目前华尔街的一致预期为:每股收益(EPS)预计为1.94美元,较去年同期增长3.2%;营收预计为59.9亿美元,同比增长4.4% 。考虑到公司过去四个季度平均超预期幅度达9.2%,本次业绩表现备受期待 。 影响本次财报的因素布如下: 生物工艺耗材复苏: 这是丹纳赫利润最丰厚的板块,其耗材业务占比约75% 。参考行业巨头赛多利斯(Sartorius)的强劲指引(2026年生物工艺销售增长预期为6%至10%),该板块极有可能带动整体毛利率超预期增长 。 诊断业务与Cepheid转型: 诊断板块作为丹纳赫最大的营收来源,正加速从呼吸道检测向多指标联合检测转型。Cepheid全球超过6万台的装机量为非呼吸道检测提供了庞大的增长潜力 。 中国市场需求: 虽然宏观环境仍有挑战,但政府的设备更新刺激计划可能带来边际改善。同行安捷伦(Agilent)最近在中国市场的6%增长为丹纳赫提供了正面参考。 DBS系统效率及外部挑战: 丹纳赫商业系统(DBS)在成本控制方面的卓越表现有助于抵消外汇波动和通胀压力 。 利多与利空因素博弈 利多面: 除了深厚的超预期传统,丹纳赫对Abcam的整合已初步显现协同效应,且公司拥有极强的自由现金流转化能力(2025年达145%) 。此外,DCF模型显示当前股价较公允价值有显著的折价,安全边际充足 。 利空面: 市场对公司近期斥资99亿美元收购Masimo的战略一致性仍存疑,认为这可能分散对核心生命科学工具业务的关注。同时,包括高盛和巴克莱在内的多家投行近期因宏观谨慎下调了目标价至230美元左右。 目前丹纳赫股价较52周高点回调了约20%,正处于技术性底部。最值得投资者关注的是,3月丹纳赫的空头仓位激增25%至694万股 。这意味着,一旦财报确认生物工艺业务重回上升通道,空头被迫回补(Short Squeeze)将产生强大的向上推动力。 免责声明:本人持有文章提及股票,观点十分主观,非投资建议dyor
中文
0
0
0
139
howie.serious
howie.serious@howie_serious·
来个暴论吧(又或者是逻辑推理?): claude 大规模 kyc、大规模堵死中国 ai 用户的可能性,可能没大家担心的那么高。 拍个数字吧:大于 40%,但小于 80%。 因为大规模 kyc,就是把市场白送给 openai。除非 claude 比 openai 领先一个身位以上,对自己的碾压式领先无比自信,坚信自己马上就能造出 super agi, 否则不太可能有商业公司这么作死。 当然,真要实现 super agi 的话,不论那家公司都会 kyc,甚至封闭式邀请制,不对外开放。🤣
中文
25
1
64
26.4K
Aelia Capitolina
Aelia Capitolina@Areskapitalon·
事实证明,及时转多是正确的。如果已经发现出了一个错误,那就最好不要让错误继续。 不过,在我结束我的这笔交易之前,我不会再说什么多余的话。以后只有我的每单交易平仓之后,才会在这里复盘和总结一下,以及我为什么结束交易平仓。之后的事情同理,开仓不会分析原因,只有平仓时会。这样,不仅伸手党看不懂,愿意认真研究的,也能大概知道接下来可能的交易方向是什么。
Aelia Capitolina@Areskapitalon

认为我前后观点不一致的话,我不知道你们上x是想要看什么。我看到踏实的证据,肯定是得转变观点的,同理在没看到踏实的证据之前,也没有理由转变观点。这个观点的转变,是从上周到这周逐渐完成的。 对我来说比较关键的证据有三个: 1. 美国维护旧秩序的意愿和能力都严重不足。我最早的观点是“川普无法taco,因为他这次在中东问题上代表了建制派,而不是民粹主义者,建制派会推着他维护这个秩序”。 但是,我过去两周看到华尔街和建制派除了嘴上叫嚣以外,实际上并没有做出任何愿意付出成本的举措。这让我看到他们的表态很大程度上是虚伪的。 这使得我本周初明白了,美国作为一个晚期帝国,正在从它建立的秩序的维护者变成一个纯粹收税的消费者。在付出代价维持秩序,与以秩序碎裂为代价维持金融泡沫之间,这个体制集体选择了后者。这不是它嘴上表态的立场,这是它的实际选择。 理论上,石油美元的循环确实需要它维持这个秩序,但不代表现在任何人愿意付出这个代价。如果这么说的话,2008年后的量化宽松本身就代表了这个选择,现在对待伊朗的态度只是这个选择的延伸而已。 这件事在这周初川普愿意派万斯去谈判的消息之后变得越来越清楚了。于是我上周得出结论,美国不会再打地面战,只会做轰炸这种没有实际成本的事;这周伊朗威胁炸平GCC、关闭曼德海峡后,美国连这些代价也不愿意付出,于是唯一的选择只剩下拖延。这周二我大概明白了美国现在非常想单方面直接退出战争并且向下拖延。 2. 于是剩余的变量,就变成了伊朗和以色列。我之前说过伊朗革命卫队强硬派有维持战争的需求,因为它只有战争持续,才能获得对海峡生杀予夺的专制权力,用以获取对中东乃至全世界的经济杠杆,直至在中东建立霸权、所有制裁被实际上解除为止。 但这周初的形势令一件事清楚了:在美国战争意愿如此匮乏的情况下,即使美国出局,伊朗甚至可以更好地保留这个杠杆,同时从美国取得其单纯在战争状态下取得不了的利益。所以我逐渐意识到,这个地方伊朗和美国存在共同利益,那就是至少结束伊朗和美国之间的战争。 周二当天也有消息证明,革命卫队强硬派不同意结束与美国之间的战争,在强力阻止谈判。说明这件事,即使到那时也还是有不小的变量,但是德黑兰时报发出“外交渠道中止”到删除帖子的事情之间,让我感觉到事情起了一些变化,很有可能就是在看到美国如此急于退出战争之后,伊朗发现回到和平并没有什么大不了的。 3. 那么最后一件事就是以色列是否能够接受这件事,这是过去两天内才变得逐渐清晰的。以色列的处境在这里非常困难,它的国内政治要求它继续消灭伊朗和真主党的胜利叙事,不能让步和妥协;但是它又必须至少在表面上配合美国的战略。所以在这里,拖下去对它没好处,却是它现在唯一可行的选择。 于是它祭出了“和黎巴嫩政府谈判,解除真主党武装”这个自欺欺人的把戏。但这件事正好说明,以色列没有任何能力升级局势阻止谈判,最多能做到的仅仅就是维持现状而已。这是能力问题而不是意愿问题。至于拖延下去之后该怎么办,我想这是以色列现在完全没办法想象的。因为以色列在美国强大影响力的缘故,黎巴嫩局势之后还会造成海峡的局面和石油供给出现多次反复,导致能源在很长一段时间内的供给都非常随机、直接与政治博弈挂钩。 最后形势其实就很明白了,现在美国是打着维持秩序的胜利旗号,为那种不想付出代价的撤退进行掩饰。中东秩序可以说在一夜之间坍塌了,而整个体制的做法是:一边用各种谎言和修辞声称自己还在维持秩序,一边用不愿付出代价的行为给予伊朗这个秩序挑战者一切好处。 因为维持秩序需要付出的代价,已经高过了这个体系能够承受的程度。帝国从一个可以自我造血的循环系统,变成一个只有一波流的,破了就没有办法再复原、全靠估值本身维持估值的庞氏骗局,这是现在美国这个体制上下的共识。这其实也是2008年以后“美股永远涨”“悲观者正确,乐观者赚钱”信仰的来源,伊朗战争只是在地缘政治上把它揭穿得更彻底了。 人们会问为什么各种事情都出问题了,按理说事情应该变糟,但它为什么没变糟?那是因为这个体制的性质发生了变化。但至于这个庞氏骗局何时破裂,我在此先不做判断。 最后再说一句,你们上x的目的不应该是寻找一个人指望永远正确,如果这个人观点转变了,就嘲讽其前后不一致。我并不是为了去发明一个叙事然后让整个世界符合我的想象。我的目的是交易,那交易就必须伴随着我自己认知的进步,因为盈亏是有反馈的。 你们如果想看一看我的思路,那可以看,如果是也指望找一套满足自己的完美叙事,满足不了就加以嘲讽,那你们还是不要在这里出丑了。

中文
35
1
100
41.4K
夜谈
夜谈@gntalktalk·
@raycat2021 伊朗能通过控制霍尔木兹海峡要挟美国 美国能通过“控制”伊朗控制霍尔木兹海峡要挟中国(侧面减轻主战场压力) 螳螂捕蝉
中文
0
0
0
248
徐老猫
徐老猫@raycat2021·
伊朗政权对霍尔木兹海峡的控制,再次体现了卡脖子能力在地缘政治角逐中的重要性。 控制一条关键水道、一项技术、一家公司,一些关键资源,都能让一个国家在全球经济中拥有巨大的影响力。 通过相互确保经济毁灭来建立威慑,将成为国家竞争的不二法则。 与其去恳求“不要切断我们所需的东西”,不如掌握“我可以切断你们所需的东西,” 这些经济武器的威慑力不亚于核武器,全球经济将出现更多动荡和摩擦,加重消费者和企业的成本。
中文
9
3
35
10.6K
夜谈
夜谈@gntalktalk·
AI时代的真正分水岭,是递归自我迭代 递归自我迭代的下一个主战场,是模型+芯片的递归自我迭代 马斯克的terafab,anthropic自己做芯片,都是在抢占制高点
中文
0
0
1
185
夜谈
夜谈@gntalktalk·
市场到目前还是把KLA当成一家检测设备公司,但如果把眼光放远一点,这个定位其实已经不精确了。 半导体最大的两个趋势:CPO和Hybrid Bonding。 它们的共同点不是“新增了一些工艺”,而是把制造复杂度推到了一个新台阶。 光电耦合、纳米级对准、极端良率敏感,这些东西叠加在一起,带来的不是线性难度,而是系统性跃迁。 这一步变化很关键。因为KLA的本质,从来就不是卖设备数量,而是卖“复杂度管理能力”——缺陷检测、计量、良率爬坡。 复杂度越高,它的价值越大。 所以你会看到一个很有意思的现象: CPO现在在KLA收入里几乎可以忽略,Hybrid Bonding也只有大概1%–3%。 但这两个方向,对KLA的影响却远远超过它们的收入占比。 原因很简单:它们不是收入来源,而是“放大器”。 Hybrid Bonding尤其明显。 它本质上是在把封装变成类似前道工艺—— nm级精度、表面状态控制、极端良率敏感。 带来的结果不是“多卖几台设备”,而是: 检测步骤变多 精度要求提高 每个缺陷的代价放大 三个变量同时提升。 这就是为什么,在Hybrid Bonding早期阶段: 行业增长1%,KLA相关业务可能增长1.8%–2.5%。 典型的超线性。 CPO也是类似逻辑,只是路径更偏“新问题”,确定性略低。 但方向一致: 复杂度提升 → 检测需求放大 → KLA受益加速 接下来更重要的一点,是护城河的变化。 很多人以为KLA的优势是设备,其实不是。 它真正的壁垒在于: defect数据库 工艺学习数据 软件与良率模型 在传统工艺下,对先进制程来说,这些已经非常重要; 在CPO和Hybrid Bonding下,这些变成决定性因素。 因为新工艺的问题不是“有没有设备”,而是能不能快速找到问题、解决问题、提高良率。 这一步极度依赖历史数据和经验。 飞轮在这里开始形成: 客户越多 → 数据越多 → 检测能力越强 → 客户更集中 护城河从“技术优势”,变成“数据+技术”的复合结构。 而且越复杂,这个飞轮转得越快。 这也直接改变了客户的选择逻辑。 过去是: 多供应商、压价格、分散风险。 现在变成: 先把良率做出来,再谈成本。 在AI时代,时间比设备价格更贵。 如果良率爬坡慢,损失的是整条产线的机会窗口。 所以在Hybrid Bonding、CPO这种阶段: 客户更倾向直接选最成熟的方案。 很多时候,这个方案就是KLA。 随着复杂度提升,检测从“提升效率的工具”,变成“生产的前提条件”。 每一个工艺节点、每一个关键步骤,都要经过它。 这带来的不是暴力提价,而是更隐蔽、更稳定的定价权: 软件收入增加 数据绑定增强 客户粘性上升 更像EDA,而不是传统设备商。 如果把未来5年拆开看,大概是这样: Advanced Packaging:7–8% → 15–20% Hybrid Bonding:1–3% → 8–15% CPO:接近0 → 3–8% 这会让KLA的增长函数发生变化。 从“跟随行业周期”,变成“跟随复杂度上升”。 两者的差别在于前者是波动,后者是斜率。 总的来说,KLA正在变成一张覆盖整个先进制造的基础设施网络。复杂度越高,这张网就越值钱。 利益声明:以上内容非投资建议,DYOR。
夜谈 tweet media
中文
0
0
1
300
夜谈
夜谈@gntalktalk·
行业浅析:HBM的演进,本质上不是“效率提升”,而是“用更多资源换更高性能”。 从HBM3E到HBM4,是一次真正的结构性跃迁。接口从1024-bit直接翻倍到2048-bit,单颗带宽接近2倍甚至更高,容量也明显提升。但这些提升的代价,是更高的die消耗、更复杂的封装,以及明显下降的系统良率。HBM4不是“做得更容易”,而是“更难但更强”。 到了HBM5,路径开始变化。不再靠接口翻倍,而是靠更高的IO速度(24–32Gbps)和更激进的频率推动性能。整体带宽还能再提升1.5到2倍,但已经明显进入“压榨阶段”。复杂度继续上升,但边际收益开始下降。 真正的拐点在HBM6。再往上走,行业已经撞到几堵硬墙:信号完整性、功耗密度、堆叠高度、封装系统瓶颈。这些不再是工程优化问题,而是接近物理极限的问题。HBM6大概率只能提供20%到50%的提升,而且成本会显著上升。行业从“带宽扩张”,转向“系统优化”。 但更关键的,不在性能,而在供给。 单颗容量提升,并不等于行业总容量提升。HBM的容量增长,靠的是堆叠更多die,而不是单位产出变多。同样一片wafer,产出的die数量是固定的,但每颗HBM消耗的die在增加。12层变16层,意味着单位时间内能做出的HBM颗数反而减少。同时,堆叠越高,良率呈指数下降,进一步压缩有效供给。 更大的瓶颈还在封装。HBM已经不是一个“内存产能问题”,而是“先进封装产能问题”。CoWoS、Hybrid Bonding、测试和burn-in,才是真正限制供给的环节。这也是为什么HBM长期处于紧缺状态——不是需求太快,而是技术升级本身在压缩供给。 所以,HBM行业的一个核心特征是: 性能在指数级提升,但供给更接近线性增长,甚至在某些阶段是收缩的。 这也意味着,它不再像传统DRAM那样周期性过剩和价格崩塌,而更像先进逻辑芯片:供给受限、溢价长期存在、利润由复杂度驱动。 这条逻辑往下推,产业链的受益结构也会发生变化。内存厂不再是唯一核心,设备、封装和测试的价值被不断放大。每一代HBM升级,带来的不是更多产量,而是更多工艺步骤、更高检测要求、更长测试时间。这就是为什么一些设备公司会出现“行业增长10%,自己增长30%”的超线性表现。 再往后看,如果HBM6真的接近物理极限,行业不会停,而是换路径。可能是Hybrid Bonding彻底替代TSV,可能是memory与compute进一步融合,也可能是光互连进入封装体系。下一阶段的竞争,不再是谁带宽更高,而是谁能在系统层面突破瓶颈。 总的来说,HBM的升级,不是在释放供给,而是在提高门槛。性能在上升,但产能被锁住,复杂度成为新的定价权。
夜谈 tweet media
中文
0
0
0
181
夜谈
夜谈@gntalktalk·
A Paradigm Shift in Scaling Laws: Scale-Up, Scale-Out, and Scale-Lean Over the past two years, as AI has advanced, skepticism around scaling laws has grown. But in practice, scaling laws haven’t broken down—they’ve evolved and, in many ways, become even more powerful. Looking back, the transition from GPT-3 to GPT-4 was fundamentally about making models bigger: more parameters, more data, more compute. This is the classic Scale-Up paradigm. Starting with GPT-4, however, the focus began to shift toward reasoning—not just generation, but multi-step reasoning, chain-of-thought, and structured problem decomposition. Model capability is no longer driven purely by scale, but increasingly by how inference is structured and executed. This marks a subtle but important shift: how you use the model is becoming just as important as how large the model is. More recently, with the rise of agent ecosystems like OpenCLaw and AutoResearch, the discussion has moved beyond models altogether and toward systems. At this stage, the model is only one component. The real leverage comes from how tasks are decomposed, how tools are invoked, and how execution is iterated and refined across multiple steps. Capability gains are now increasingly driven by system design. Through orchestration, tool integration, and iterative execution, isolated model capabilities are transformed into systems that can handle complex, multi-step tasks. This is Scale-Out. But as reasoning deepens and agent workflows expand, a more immediate constraint emerges: cost. As tasks become more complex and multi-step execution becomes the norm, the number of model calls grows rapidly—often exponentially. Inference costs rise sharply, latency becomes a limiting factor, and constraints like memory bandwidth start to dominate. The bottleneck shifts from capability to efficiency. This is why a growing number of recent papers and engineering efforts are focused on cost reduction and efficiency gains. Projects like DeepSeek’s Engram and Google’s TurboQuant push aggressive optimizations in storage, compression, and system efficiency—making systems cheaper and faster without proportionally increasing compute. This is what we call Scale-Lean. Taken together, these three dimensions provide a clearer lens on where the field is heading. Initially, Scale-Up dominated. Progress was driven primarily by increasing model size. Then Scale-Out emerged, with system-level capability becoming a new driver of performance. Now, Scale-Lean is becoming critical, as it directly determines whether these systems are economically viable. These are not competing approaches—they are complementary and compounding. More importantly, they form a positive feedback loop that accelerates overall progress. Stronger models (Scale-Up) reduce error rates in agent systems, shorten execution paths, and improve stability—amplifying the effectiveness of Scale-Out. As systems grow more complex, call volume increases, exposing cost and latency constraints—forcing optimization through Scale-Lean. Once efficiency improves, lower costs and higher throughput make more complex systems feasible, while also enabling more frequent model usage, training, and iteration—feeding back into Scale-Up. This creates a reinforcing cycle: Scale-Up enhances Scale-Out → Scale-Out drives Scale-Lean → Scale-Lean accelerates both Scale-Up and Scale-Out. AI progress is no longer driven by a single axis. It is now a multi-dimensional, tightly coupled system. When all three vectors advance simultaneously, capability growth can shift from incremental to step-function gains. The implication is straightforward: AI capability growth is not slowing—it is accelerating. Scaling laws haven’t hit a wall—they’ve shifted into a higher gear.
夜谈 tweet media
English
1
0
0
131
夜谈
夜谈@gntalktalk·
分析:scaling law的范式转移:scale-up、scale-out和scale-lean 过去两年,随着ai的发展,质疑scaling law的声音越来越多,但其实scaling law不但一直都在,而且还在不断增强。 如果我们稍微回顾一下历史,从 GPT-3 到 GPT-4,本质上都是在把模型做大——参数更多、数据更多、算力更强。这就是典型的 Scale Up。 但从 GPT-4 开始,大家开始越来越多地讨论“推理”。不是简单的生成,而是多步推理、链式思考、更复杂的问题拆解。 模型能力的提升,不再只是来自参数规模,而是来自推理过程本身的优化。这其实是一个很微妙但关键的变化:行业开始意识到,“怎么用模型”,和“模型有多大”,同样重要。 直到最近,像 OpenCLaw、AutoResearch 代表的agent生态开始大火,本质上已经不是在讨论模型本身了,而是在讨论一个系统。模型只是其中一部分,更重要的是任务如何拆解、如何调用工具、如何在多个步骤中反复执行和修正。 这时候,能力的提升,已经不再主要依赖模型本身,而是依赖结构。通过多次调用、流程编排、工具接入,把原本单点能力扩展成一个可以执行复杂任务的系统。这一阶段,其实就是 Scale Out。 但从推理和agetn生态开始跑起来之后,一个更现实的问题马上出现了:成本。 推理一旦复杂化,Agent一旦进入多步执行,调用次数是指数级增长的。推理成本迅速上升,延迟变得不可接受,底层的内存和带宽开始成为瓶颈。你会发现,问题已经从“能力不够”,变成了“跑不起”。 于是最近这段时间,越来越多的论文和工程实践,都开始研究如何降本增效。 比如 DeepSeek 之前的Engram,Google 最近的 TurboQuant,本质上是在做更极致的存储优化、压缩和效率提升 -- 在不显著增加算力的情况下,让系统变得更强、更便宜、更快。 我们可以把它叫做 Scale Lean。 把这三条路径综合起来,可能更能帮助我们把握行业未来的发展。 最早是 Scale Up 占绝对主导,大家都在拼模型大小。然后是 Scale Out 开始出现,系统能力逐渐成为新的增长点。再到现在,Scale Lean 开始变得越来越重要,因为它直接决定这些系统运行成本。 这三者不是替代关系,而是叠加关系。 更重要的是,Scale Up、Scale Out、Scale Lean 三条路径本身就是一个正反馈系统,它们会互相放大彼此的效果,从而加速整个AI进化。 模型变强(Scale Up),会让Agent系统更少出错、步骤更短、整体能力更稳定,从而放大Scale Out的效果; 而一旦系统复杂度上来,调用次数暴增,成本问题就会被迅速放大,这又反过来逼着整个行业去做效率优化,也就是Scale Lean。 等到效率真的被做下来之后,事情又会发生变化——更低的成本、更高的吞吐,会让更复杂的Agent系统变得可行,同时也让模型可以被更频繁地调用、训练和迭代,进一步推动Scale Up。 于是这三者之间形成了一种很典型的正反馈:Up让Out更强,Out逼Lean进化,Lean又反过来加速Up和Out。 AI的发展不再是单一变量的线性推进,而是一个多变量耦合的加速系统,一旦三个方向同时往前,整体能力的提升就很容易从“渐进式”变成“跳跃式”。 基于以上的讨论,我们可以得出一个结论,ai能力的增长速度,不但没有放缓,还在加速。 scaling law不但没有装墙,反而驶上了快车道。
夜谈 tweet media
中文
1
3
10
8K