Neoooo

21 posts

Neoooo banner
Neoooo

Neoooo

@RNeee49397

撒哈拉沙漠 Katılım Eylül 2024
753 Takip Edilen96 Takipçiler
Neoooo retweetledi
fin
fin@fi56622380·
AI半导体终局推演2026(I) 当新token经济学范式从GPU算力转移到HBM 本文从从GPU架构进化路线本质出发,解释这个市场长久以来担心的问题: 每个GPU的HBM内存需求为什么一定会是指数增长,为什么HBM需求指数增长不会停滞? 并推导token经济学在当前架构下第一性原理:token吞吐 = HBM size X HBM BW带宽 同时讨论了,为什么GPU的天花板被HBM的两个发展维度所决定 HBM周期性这个话题争议一直很大,乐观派认为AI带来的需求比以前要大的多,但市场主流仍然认为前几次上升周期也有需求每年20%+增长,这次又有什么不一样呢?AI不影响HBM和传统DRAM一样有commodity属性,一旦在需求顶峰扩产遇上需求下行又会重蹈覆辙。 我们可以从算力芯片架构视角,从第一性原理出发,来拆解和推演一下这个问题:为什么这次真的不一样 ------------------------------- 历史:CPU算力时代 很久以来,我们都处在CPU主导算力的时代,CPU的最高级KPI就是performance,跑的更快,所以每一代的CPU都用各种方法来提高跑分,最开始是频率上升,后来是架构演进superscaler等等 这个时候为什么DDR不需要很快的技术进步速度?比如DDR3到DDR5竟然经历了15年之久 因为这个时期的DDR的角色是纯粹的辅助,而且辅助功能极弱,以业界经验,DDR的速度即便是提高一倍,CPU的performance一般只能提高不到20%这个量级 为什么DDR带宽速度提高了用处不大?两个原因 1. CPU设计了各种架构去隐藏 DDR延迟,比如superscaler,加大发射宽度,用海量的ROB和register renaming来提高并行度隐藏延迟,一级缓存cache,二级缓存cache,削弱了DDR的带宽速度需求 2. CPU workload对DDR带宽要求并不高,大部分日常负载比如打开网页,DDR带宽是严重过剩的,甚至云端负载 也就是说,在CPU时代,DDR的带宽速度是不太有所谓的,DDR4和DDR5除了少数游戏就没啥差别,甚至JEDEC标准也进步缓慢。 另外,绝大部分app需要一直停留在DDR上的部分并不多,需要的时候从硬盘上调度到DDR即可,app的size增长没那么快,导致对DDR的容量需求也较为缓慢。 所以最近十年来,平均每台电脑上的DDR容量大概从7~8GB变成了23GB,十年只增长了3倍。 而这部分升级缓慢直接影响了营收,size容量计价是赚钱的主要方式,速度的提高只是技术升级,提高size的单价,这两个的升级需求都不大,需求主要是随着电脑/手机数量增长而增长 所以DRAM在带宽速度和容量这两个维度上,一直是都是芯片产业锦上添花性质的附属品,DDR升级带来的边际效用是很低的,跟CPU时代的最高KPI几乎没什么直接联系 -------------------------------------------- 而到了genAI 大模型为主导的新时代,计算范式转移让最高级KPI起了根本变化 GPU发展到AI推理的时代,不再像CPU那样只看跑分,最高级的KPI不再是算力TOPS/FLOPS,而是token的成本,特别是单位成本/单位电力下的overall token throuput 其次是token吞吐速度,因为在agent时代,很多任务变成了串行,token吞吐速度成了用户体验的重要瓶颈。 这也是为什么老黄发明AI工厂概念的原因:最低成本的输出最多token,同时尽量提高token吞吐速度 AI训练时代,老黄的经济学是TCO(total cost ownership),买的GPU越多,省的越多 而老黄在推理时代的token经济学是: AI推理的毛利润很可观,所以逻辑已经转换成:Nvidia GPU是这个世界上让token单价最便宜的GPU,买的GPU越多,赚的越多 最高的KPI变成了Pareto frontier曲线,在提高token 吞吐throughput和提高token速度两个维度上尽量优化 (见图一) NVIDIA 的 token factory 代际进步,其实是在把整条 Pareto frontier 往右上推,这就是是AI推理这个时代最重要的KPI ---------------------------------- 接下来是本文最重要的逻辑链,如何从token吞吐量指数型增长的本质出发,推导出天花板瓶颈在HBM size和HBM 带宽的指数型增长 单卡GPU推理单线程batch size = 1的时代,token吞吐只有一个维度,就是HBM的带宽速度,带宽速度越高,token吞吐越大 但进入NVL72的年代,推理不再是单卡GPU时代,而是72个GPU + 36个CPU整个系统级别的token工厂,把HBM带宽和算力用满,获得极致的token吞吐量 Token 吞吐throughput的增长,依赖两个东西:同时批处理的请求数 X 每个user请求的平均token速度 也就是batch size X per user token 速度 以Rubin NVL72为例,在平均token速度是100 token/s的情况下,同时批处理1920个请求,得到token吞吐量是19.2万token/s 一个Rubin NVL72大概是120KW(0.12MW)的功率,所以得到单位MW能处理1.6M token/s (见图一) 所以,我们需要想方设法提高这两个参数:批处理数量batch size和per user token的平均速度,这两者相乘就是我们的最高KPI,也就是token的吞吐量 ------- 第一个参数:batch size的增长,瓶颈在HBM size 批处理量里的每一个请求req,都会自带kv cache,这部分kv cache是需要存在HBM里的,大小大概在几个GB到数十GB不等 因为hot kv cache是随时需要高频高速读取,所以必须放在HBM里,比如一个大模型的层数是80层,那么每一个token的生成阶段,都需要读取80次HBM里的kv cache 随着批处理数量batch size的增长,会带来hot kv cache的线性增长 又因为这个批处理量的所有请求的hot kv cache,都要放在HBM上,这也就带来了HBM size必须要随着批处理量batch size线性增长 就像是机场接驳车,登机口尽量快的接旅客到飞机,HBM size小了,相当于接驳车size小了,就得多接一趟 结论是:批处理量的数量batch size,瓶颈依赖于HBM size的增长 --------- 第二个参数:每个user请求的平均token速度,瓶颈在HBM带宽 大模型decode阶段的速度,瓶颈取决于HBM的带宽速度,因为每生成一个 token,都要把激活的权重和kv cache 读很多遍 LPU的出现,在batch不那么大的情况下,把激活权重这个部分搬到了SRAM上,但是每生成一个 token仍然要从HBM读很多次KV cache。HBM带宽越高,生成每一个token的速度也就越快,基本上是线性对应的 就像是机场接驳车,登机口尽量快的接旅客到飞机,hbm本身带宽速度就像是接驳车的车门有多宽,门越宽,旅客上接驳车越快 GPU的其他配置,都是在适配batch的增长以及要让token compute的速度配平HBM的增长,甚至会用多余的算力来获得部分的带宽(比如部分带宽压缩技术) —----- 在那个接驳车的比喻例子里 接驳车的车厢大小 = HBM Size(容量): 决定了一次能装下多少名旅客(也就是能同时装下多少个请求的 KV Cache)。车厢越大,一次能拉载的旅客(Batch Size)就越多。如果车太小,想拉100个人就得分两趟,系统整体的吞吐量就上不去。 接驳车的车门宽度 = HBM Bandwidth(带宽): 决定了旅客上下车的速度。门越宽,大家呼啦啦一下全上去了(Decode/生成Token的速度极快)。如果门很窄,哪怕车厢巨大能装200人,大家也得排着队一个一个挤上去,全耗在上下车的时间里了。 旅客的吞吐量 = 接驳车车厢容量 x 接驳车旅客上车速度(车门宽度) —--------------------------- 至此,我们从逻辑上推演出了token经济学的硬件需求第一性原理: Token throughput = HBM size X HBM Bandwidth AI推理这个时代的最高KPI,实际上是高度依赖于HBM的两个维度的进步的 如果要维持token throuput每一代两倍的增长,实际上意味着,每一代的单GPU上,HBM size X HBM BW带宽之积要增长两倍! 这也是历史上第一次,HBM内存的size可以影响最高的KPI token throughput! 要验证这个理论,可以把Nvidia从A100到Rubin Ultra这几代的token 吞吐throughput,和HBM size X HBM BW 放在同一个图里比较 (见图二) 可以发现,这两个曲线的走势在对数轴上惊人的一致 HBM size x HBM带宽增长的甚至要比token吞吐量更快,毕竟HBM决定的是天花板,实际上这个天花板增长的利用率utilization是很难达到100%的,也就是说,HBM size x HBM 带宽就算增长1000倍,其他算力和架构的配合下,很难把这1000倍的天花板潜力全部榨干 这条曲线不是巧合,而是系统最优化的必然解 throughput = batch × Bandwidth,这就是token factory 经济学最绕不开的第一性原理 —-------- 软件的影响呢?软件的优化会不会降低带宽的需求?降低HBM的需求? 这跟硬件是独立两个维度的,这好像在问,如果CPU上的软件优化了之后跑的更快,是不是CPU就十年不用发展了?反正软件跑的更快了嘛 这样的话,CPU厂还能赚得到钱吗?CPU想要存活下去,只有一条路可走,在标准benchmark,不考虑软件优化,每一代CPU必须要跑分更高,不然就卖不出去 GPU也是一样,软件优化如何,和自己的token吞吐量KPI每年都要大幅进步,是两回事 只要token的需求继续增长,对token throuput的追求就绝不会停止,那么对HBM size X HBM 带宽的追求也不会停止 如果HBM size和HBM 带宽发展慢了,老黄一定会亲自到御三家逼着他们技术升级,因为这就是老黄gpu的天花板,天花板要是钉死了不进步,老黄的GPU还能卖出去吗? 当然了,Nvidia需要绞尽脑汁去从异构计算的架构角度榨取HBM天花板之外的部分,比如LPU就是一个很好的尝试,把Pareto frontier从另一个角度改善了很多 (右半边高token速度的部分) —-------------------------------------- HBM内存已然告别了那个随波逐流的旧时代,在这条由指数级需求铺就的单行道上,以一种近乎宿命的方式走到了产业史诗的主舞台中央 推理范式第一性原理演化到这一步,只要老黄还要卖GPU,HBM就必须翻倍,而且必须代代翻倍。这是supply side的内生压力,与AI需求无关,与宏观周期无关,与hyperscaler的心情也无关 剩下的问题,只有一个: 当需求被物理锁定为指数增长的时候,供给侧的三个玩家,会不会还像过去三十年那样,亲手把自己再拖回一次周期的泥潭?
fin tweet mediafin tweet media
fin@fi56622380

回顾2025年半导体市场,真的是有太多太多精彩的故事,最大的主题就是: AI需求驱动导致半导体基建的估值体系重构 + 产业链的价值分配重写 从2024年开始,半导体基建正在飞速吞噬整个IT产业利润,SP500里半导体净利润EPS在IT行业里占比,在两年时间从不到20%上升了到了40%,而且还在呈加速上升姿态 半导体整体前瞻利润率从2023年的25%已经升到了2025年11月的43%,已经明显超过了几个互联网巨头的平均利润率,这也印证了半导体利润率超过互联网会是新常态。整个IT产业的利润分配,流向半导体的比例越来越大。 要知道,就算是20~22年的半导体芯片荒,短缺如此严重,半导体的利润率和整个IT利润分配也没有显著增长 这就是故事的上半篇:AI需求驱动导致半导体基建的估值体系重构,不再是互联网时期的基建从属地位 ------------------------ 这个现象背后的逻辑是商业模式随着技术特性的变迁: 互联网时代,每次请求的网络和算力成本,边际成本极低,scaling的效果极好,分发的边际成本几乎为零 在AI时代,这个互联网时代分发边际成本几乎为零利于scalable的特性遭遇了根本性的重大挑战:且不说训练成本从此不是一次性开销而是年年增长,就客户的AI推理请求而言,由于inference scaling成为共识,加上垂直领域仍然需要更大规模的旗舰模型来保持竞争力,推理的成本不会随着硬件算力价格的通缩而同步降低 互联网企业从前的最大成本只有OPEX尤其是SDE人工成本,而现在,互联网公司历史上第一次像半导体厂foundry那样背上高折旧成本的资产负债表,商业模型恨不得要慢慢从“流量 × 转化率”部分转向“每 token 毛利”了 简单的说,互联网时代到AI时代的成本分布,在人力成本opex的基础上又加上了沉重的硬件/算力成本capex(财报里占比:MSFT 33%, Meta 38%)。 上个时代的互联网公司+CSP+SAAS是收租行业里的大赢家,而AI时代,算力(半导体/芯片折旧)成为了新的收租行业,整个IT行业的利润分布发生了剧烈的重新分配(EPS利润流向半导体从20%升到40%而且持续攀升中),这就是半导体基建估值体系重构最重要的原因 --------------- 半导体高利润率的新常态趋势能持续多久? 目前的高溢价来自于前期不计成本的军备竞赛造成的半导体订单积压过多 但很显然,hyperscalers都不愿意当冤大头,都在试图自建ASIC降低成本,那么可以从2030年远期的算力分布来回看这个问题 长线来看,openai已经明牌了标准答案,10GW Nvidia,10GW ASIC,6GW AMD,其他hyperscaler划分比例有类似考虑 比如说,推理端希望ASIC >50%,GPU里再细分的话,AMD和NV(legacy)对半分。训练还是得NV占大头,60%+,剩下的自研ASIC和AMD对半分 2030年按60%推理,40%训练比例划分,算下来NV 38%, ASIC 39%, AMD 23%,跟openAI比例是几乎完全一致的,算是一个标准答案参考值 当然了,微软,Amazon,Google,Anthropic这几家里AMD的比例会比这个标准答案中枢/参考值明显低一些,xAI则是没有ASIC只有Nvidia+少量AMD AMD的风险在于,当2030年再往后的更长期,CSP的in house ASIC越来越成熟(微软除外),推理端ASIC占比可能越来越高,很难有incentive新买入大量GPU了,除非卖的足够便宜 最近风头正劲的TPU呢?Meta是不是要转向TPU?对Nvidia的利润率影响大吗? 实际上,Meta今年capex72B,明年capex110B,未来六年capex平均值可能达到160B附近,而Meta 6年10B的TPU订单算下来年均只有1.6B,而且购买的是TPU云服务,并不是裸TPU 也就是说,Meta这笔TPU订单只占到Meta未来6年capex的1%,并没有严肃的考虑大规模部署,可能只是作为和Nvidia讨价还价的手段而已 另外从Meta最近几个月的招聘广告来看,也并没有看到任何TPU engineer方面的招聘,不像 Anthropic那样从五月就招一堆TPU kernel engineer,十月才宣布大规模采购TPU做训练 所以说,不管原因是diversify供货商,还是给自研ASIC延迟做退路,还是因为AMD的MI350X延迟,Meta买TPU基本上只有一个考虑:增加买Nvidia GPU的议价权,但顶多只有推理份额里能讨价还价,实际效果很有限,对Nvidia利润率影响也很有限。 要知道,22年加密货币熊市矿难的时候,NVDA库存上升到了198天,利润率只是从65%回撤到了56%,算上PE/宏观双杀股价才从300变100,现在一直供不应求,利润率没道理能降下来 再加上TPU v8设计过于保守(没用HBM4),Kyber rack的Rubin方案会比TPU v8的TCO更好,到头来最后还是得继续依赖Nvidia,很难议价。只要Nvidia继续保持这样的大踏步前进,竞争对手其实要跟上还是不容易的。 总之,一方面,全产业链瓶颈,比如cowos扩张都很谨慎,供不应求的状态还能持续多年。 另一方面,AI变现的利润曲线和硬件投入曲线存在“时间错配”,应用端的增长曲线会落后几年,只要这个应用端和基建端的增长曲线的时间错位依旧存在,半导体在IT行业的利润分配就会一直占优势。 从OpenAI的到2030年的投入曲线来看,这个时间错位至少要持续到2030年附近。也就是说半导体行业的超级扩张期带来的在IT产业利润划分的主导地位,目前看至少能持续到2030年 而半导体高利润率可能会维持的更长远一些,因为从互联网时代一次性基建属性变成了现在的收租基建属性 --------------------------------------------------- AI 不是只养活了 GPU,而是在用算力预算把“能把电变成 token 的每一环”都抬了一轮,从内存,存储,互联,光纤,电力,储能…..等等 上半篇讲完了“半导体吞噬IT利润”,那么下半篇讲的就是“AI算力价值溢出效应(Spillover Effect)重塑半导体内部格局”:GPU算力增长 -> 内存/存储/互联/CPU瓶颈 -> 溢出效应 -> 结构性机会 2025 年更有趣的故事,是巨大的行业红利在半导体内部怎么诞生结构性新机会,比如说,一个super cluster需要几个数据中心互联,光纤互联的长度需要上百万mile这个级别,这就是新机会 半导体产业链的结构性趋势带来的新机会,最典型的例子就是内存(DRAM/HBM)和存储(SSD),HBM的需求增长太夸张,连带挤压DDR4/5产能,直接让以周期性为标志的内存行业甚至喊出了“周期不存在”了,Hynix因为在HBM上领先,甚至都开始憧憬起了几年后年利润1000亿美元,妥妥一个万亿市值的公司 这两个板块背后,是结构性趋势的转变:AI workload从训练逐渐往推理延申,推理比例越来越大。 而推理是一个非常纯粹的吃内存带宽速度(memory bound)的事情,可以说带宽速度=token/s。模型尺寸越来越大,以及上下文context length的增加,对内存的尺寸要求也相应增大,导致了内存的需求激增:推理即内存 下一代的的GPU/ASIC内存已经成了暴力美学,配备的内存size之巨大,是三年前无法想象的,回看22年H100的80GB简直像个玩具,这才几年就增长了十倍: Nvidia Ultra Rubin - 1024GB HBM Qualcomm AI200 - 768GB LPDDR AMD MI400x - 432GB HBM 内存的另外一个潜在的爆发点在端侧,也就是手机/PC/汽车/机器人的端侧LLM,这两年主流的手机旗舰机已经从6GB升级到了8GB/12GB/16GB,提前为可能的端侧LLM生态做准备,毕竟手机算力下一代就能达到150TOPS量级,妥妥的桌面级,非常暴力 潜力上来说,端侧内存升级是比云端内存增量要更大的市场,毕竟端侧终端device的数量太惊人了,每年都是billion级别,一旦端侧LLM生态繁荣起来,内存用量翻倍轻而易举,针对端侧低功耗内存/存算一体的各种设计都会跟上 但端侧genAI的软件生态,似乎明显滞后,一直比我想象的进度要慢,可能是因为这方面还处于摸索期,并没有云端那么确定的ROI,厂商们在投入上都很谨慎,我在23~24年时候看好27年,可能还是太乐观了 互联网->移动互联网用了10~15年,端侧genAI/LLM可能也需要7~10年,可能得等云端ROI开发的差不多了,边际收益下降了,才能轮得到端侧genAI/LLM拿到开发资源,跑通端侧ROI。 -------------------------------------- 另一个2025年半导体内部结构性转变的故事是NAND存储,特别是企业级eSSD硬盘 结构性趋势来源也是同一个,AI workload的推理需求越来越大。内存红利也外溢到了SSD存储,甚至HDD存储,因为内存不够用就用高速SSD作为多级缓存 主要逻辑是AI推理过程中内存溢出KV cache offloading到下一层SSD存储,以及向量数据库检索/indexing,都在增加SSD存储的需求 Micron财报说的精准又直白:“AI inference use cases such as KV cache tiering and vector database search and indexing, are driving demand for performance storage.” 至于为什么存储价格在第四季度才爆发,这需要区分一下合约价格和现货价格,合约价格涨幅会温和一些,就算是最紧缺的企业级eSSD合约Q4上涨大概25%。而当NAND产能在2025年被合约慢慢的吃光,现货的价格就造成了观感上强烈的冲击,一个月上涨50%以上。 另一个未经验证的逻辑是多模态的爆发,特别是AI图片和AI视频的需求爆发,也会加剧存储的短缺,我觉得这条线只能说未来可期,但目前的视频/图片精细程度,可能还不到当年GPT3的水平,要达到出圈效果还需要一些时日。 ------------------------ 那么下一步还有什么趋势转移带来的半导体结构性的机会呢 那么就要先看下一步AI推理端的需求趋势是什么,毫无疑问,agentic flow的比例会越来越大,2025并不是year of agent,而是一个decade of agent 从CPU视角去看agentic workload,routing和工具处理都在CPU上,如果把常用的agentic框架做profiling,比如SWE-Agent, LangChain, Toolformer,CPU最长可以占到90%的E2E端到端延迟,throughput瓶颈也更多的卡在CPU,甚至CPU能耗也超过了总能耗的40% Agentic AI目前是一个CPU瓶颈更多的事情,在 agentic 框架里,CPU 是永远在忙的总指挥orchestrator, 很可能会成就CPU需求的新一波回暖 AMD 2025年Q2财报(8月5日),Lisa Su明确表述了这一现象:​"In particular, adoption of agentic AI is creating additional demand for general-purpose compute infrastructure, as customers quickly realize that each token generated by a GPU triggers multiple CPU-intensive tasks." "agent AI的采用正在对通用计算基础架构产生额外的需求,因为客户很快就意识到GPU产生的每个令牌都会触发多个CPU密集型任务。" ​Q3 财报里Lisa又明牌了一次CPU TAM increasing due to Gen AI. "Many customers are now planning substantially larger CPU build outs over the coming quarters to support increased demands from AI, serving as a powerful new catalyst for our server business." Nvidia也是把agent flow视为CPU需求,GB200/300 架构配置的CPU比例也比以往大的多,36颗 Grace CPU : 72颗 Blackwell GPU,直接达到了1:2的水平,AMD的路线则是用1~4个256核的EPYC去服务MI400系列72~128个GPU 以后的硬件架构,一定会往优化agent workload方向发展,比如agent task graph的调度和load balancing,CPU/GPU协同micro-batching 算力上的比较,说不定以后也会摆脱现在的纯GPU token rate比较,转向整个系统级全栈agentic benchmark比较. -------------------------- 半导体结构性转变带来的机会同时,下一步,可能也会带来一些意想不到的次生效应 云端AI数据中心需求爆发,造成内存和存储的暴涨,给消费电子的成本带来了很大压力,在2026年,这也许会演变成消费电子产业潜在的黑天鹅 PC厂商最近的股票大跌,也是这个原因。HP已经说了要减少内存配置,暗示要把PC重回8GB内存+256GB存储的时代了。 DRAM内存和存储再这么涨下去,可能会出现很离谱的情况:内存/存储现货价格比CPU和GPU还要更贵。尴尬的是,这可能直接延缓了消费电子期望的AI PC的进程,毕竟大内存是更有利AI PC的表现力的。 夸张的说,每个PC厂商和手机厂商的员工,甚至是消费电子厂商的员工,都应该买入存储和内存,作为职业风险对冲 明年年初开始,安卓阵营的内存以及存储成本要压不住了,三星,小米的手机售价都提高的话(美国市场现在已经提高不少了),利好最大的就是苹果 苹果的内存产能,nand产能都是专属长约锁价特供的,顺带还把Kioxia给坑了好多不涨价产能,导致苹果的成本优势进一步扩大,苹果全球手机销量市占率增长可能会非常可观,接下来一阵子可能会是iphone辉煌的时光。 ----------------------- 2025年半导体市场真的是太多精彩的故事了,Nvidia/AMD/TPU和各家hyperscaler的恩怨情仇引得各路下注的吃瓜群众心情跌宕起伏。 HBM/内存厂商吃到了memory-bound的红利,NAND厂商意外收获了KV cache的溢出效应,CPU在沉寂近十年后,可能会因agent orchestration再次回到增长叙事的中心 不再是Nvidia/AVGO几家算力厂商独大,而是AI workload算力价值溢出后的每一次演进,从训练到推理,从文本到多模态,从单模型调用到agentic flow,都在重写产业链的价值分配。 云端AI的繁荣正在挤压消费电子的生存空间——当PC厂商被迫讨论重回8GB时代,苹果却因供应链优势坐收渔利。这场算力军备竞赛的次生效应,可能在2026年以意想不到的方式重塑整个消费电子格局 半导体的故事不再是一条单线,而是一张持续自我重构的网。而 2025 年,大概只是合纵连横的第一回合

中文
59
302
997
521.8K
Neoooo
Neoooo@RNeee49397·
美光下个季度的营收将达到335亿美元,超过AMD、ASML、AMAT和SNDK的总和(315亿美元)。这四家公司的总市值高达1.92万亿美元。而美光科技的市值只有5500万美元??!! $MU
中文
0
0
0
108
Neoooo
Neoooo@RNeee49397·
今年来一直定投国内的航天ETF,最近美股刚上的航空ETF $NASA 也开始定投,SPACEX上市剩没多久了,加上中美未来持续的太空竞争,未来可期
中文
0
0
3
173
Neoooo
Neoooo@RNeee49397·
@TingHu888 有没有可能这2个不是一群体? 山寨项目比如地推,诈骗的是一些圈外不了解的人,而引诱做空的对象是一群自以为聪明的合约赌狗呢?
中文
1
0
0
346
TingHu♪
TingHu♪@TingHu888·
诈骗,是指以非法占有为目的,用虚构事实或者隐瞒真相的方法,骗取他人较大数额财物的行为。 简单来说,就是用欺骗手段让你产生错误认识,然后“自愿”交出钱财。 山寨项目方通过欺骗手段让你接盘,然后砸到归零,这就属于诈骗。 你做空被爆,这属于什么?
中文
26
2
61
18.8K
Neoooo
Neoooo@RNeee49397·
@TingHu888 本质上引诱做多和引诱做空是一个性质,我想表达的是庄这次操盘过度会更增加外界对币圈是诈骗圈的印象,而Zach作为圈为大kol出来发声,我觉得他做的对啊。如果你认为庄操作没问题,三观不同我也尊重。包
中文
2
0
0
175
TingHu♪
TingHu♪@TingHu888·
这个讨论很有意思,这其实涉及到一个度的问题。 因为理论上,没有任何实体利润可以反哺的标的都存在拉盘是为了让别人接盘的问题,也就是资金盘。 但问题是,这里面是否存在诱导? 比如,传统的割韭菜诈骗都是通过各种形式诱导你买入,让你接盘。这是违法行为。 但一直拉盘,然后你非要赌顶空,这算吗?
中文
8
2
32
8.3K
Neoooo
Neoooo@RNeee49397·
@TingHu888 我指的是你说”拉盘也该骂“这句话不对,因为他拉盘的目的只是在做局而已。 要知道,每个圈子都有认知不在一个水平线的,你知道我知道,可是还有很多人不知道,那些人为认知买单很正常,但是不应该去说风凉话 就像被园区诈骗的受害者,路人难道应该去指责那些人为什么会被骗,而不是去打击诈骗集团吗
中文
3
0
4
6.9K
TingHu♪
TingHu♪@TingHu888·
既然知道这是一个控筹非常高的压大小赌博,庄家随时能根据市场压住的情况开大小,那为什么还要去参与?而且整体上是一路上升的,如果一定要参与,为何之前不一倍当现货博弈一下多?赌庄家控筹非常高拉盘爆空?知道晚了,已经拉起来了,还可以观望不参与赌博啊(比如我)。这市场也真是癫了,拉盘也被骂。
中文
25
3
57
26.9K
Neoooo
Neoooo@RNeee49397·
@TingHu888 所以你的认知里庄家控筹这么高搞这出是为了给散户送钱?? 散户全部是多头的话,庄家立马砸咯,结果都是一样的,游戏开始就是一个不对称的博弈了。这次搞这么高调,zach作为防诈kol出来发声不是很正常吗
中文
10
0
22
12K
TingHu♪
TingHu♪@TingHu888·
为什么 $RAVE 拉盘也被骂?还要查?我只会想,为啥我早期都不敢买,没赚到这个钱...无法预知庄家的格局和实力。 这么短时间涨100倍,给大家送钱,你非要做空亏钱,怪谁呢?你做空无非就是想赌庄家不拉盘了啊...
中文
58
8
167
29.3K
Neoooo
Neoooo@RNeee49397·
@0xMayyy 到下周,最后一句话应该就是热门语句了🤓
中文
2
0
2
48
May
May@0xMayyy·
《这次不一样》《早知道》《贪了》 《没跑掉》《差一分》《要是》《我就知道》《如果》《太贵了》《我感觉》《我感觉要涨》《我感觉要跌》《还会跌的》《有啥利空吗》《又亏了》《要跑吗》《为啥这样跌》《接回来》《没钱了》 《忘记了》《接不到》《卧槽》《真服了》《完蛋了》《还有救吗》 《一笔》《背驰》《大概率》《完美防守》 《拼了》《还好》《还要拿吗》《老师怎么办》《会有很大问题吗》《下次一定跟》《救命》《吓死你》 《大腿拍断》《拉不住了》《不管了》《价值投资》《5年后再看》《下次一定遵守纪律》《违反了我的系统》《以后控制仓位慢慢来》《不敢跟家里人说》《回本了再也不玩了》 《要是能回本就好了》
林晚晚的猫@linwanwan823

反思一下。 4月8号CZ出新书那天, 最该做的事就一件,all in 「币安人生」。 0.06到0.5,7倍+。 最好的行业,最强的庄。

中文
2
0
4
838
Neoooo
Neoooo@RNeee49397·
@jukan05 沃格光电? 这家公司在中国是做玻璃基板的龙头
中文
1
0
1
782
Jukan
Jukan@jukan05·
The CEO of $LPK, the glass substrate equipment company I’ve been closely watching lately, just had his interview video uploaded on the Korean media outlet The Elec. What really stood out to me was that China is copying LPFK's IP exactly to produce the same equipment, and the company is now preparing a lawsuit against them lol.
Jukan tweet media
English
19
20
286
59.6K
Neoooo
Neoooo@RNeee49397·
@xiaomustock 48块进去了,今年账户不打开了😎
中文
0
0
3
7.3K
川沐|Trumoo🐮
川沐|Trumoo🐮@xiaomustock·
全球最小的物理AI第一股, $五一视界 这股票一百多亿市值,买的话顶多亏一半,赚的话很可能10倍。 AI真正爆发需要物理AI来突破让人工智能真正理解感知到这个世界原本的样子。 英伟达的智驾仿真也是跟五一视界合作。 今天创始人加仓,国内市占率炒50%, 又有港股通。
川沐|Trumoo🐮 tweet media川沐|Trumoo🐮 tweet media
中文
45
48
298
372.4K
Neoooo
Neoooo@RNeee49397·
@billywu75 MU相对另外3个存储巨头走势好奇怪,难道说是MU里面散户太多,机构不爱MU了吗😂
中文
1
0
0
64
吳小比
吳小比@billywu75·
3/14 +7% 講講對個股的想法。 SNDK 這個勢頭。4/30應該又是炸裂的財報,然後幾個投行紛紛上調預期目標價了。原計劃SNDK抱到4月底停利計畫不變。還有兩週慢慢順勢而為。 RDW : 大股東AE Red Holdings, LLC持續賣股不變,但是今天開始有換手資金承接了。AE Red Holdings, LLC這個速度賣股還要賣到6月才能賣完。耐心等待。 Neocloud 表現最好就是CRWV NBIS。因為訂單生意確定性高。CIFR WULF 目前就是在等下一個消息,或是財報揭露。沒買到表現相對好的,就只好繼續等待。IREN ATM 60億後就不碰了。 其他太空相關,慢慢的漲就好,最好沒什麼人討論,偷偷摸摸的漲上去就好了。 四月後續回歸各大財報,有幾隻觀望表現不錯,但是接近滿倉只能祝福了。APLD CRDO FORM 這些AI相關。自己美光先停利,可能再從幾隻玻璃基板相關的做個長期佈局⋯
吳小比 tweet media
中文
1
0
13
656
Neoooo
Neoooo@RNeee49397·
至少在2027年之前,电力并不是台积电芯片需求的主要制约因素,而是ABF基板和HBM供应
中文
0
0
0
145
吳小比
吳小比@billywu75·
本來想針對這個講的,但是寫個心得 當你想炒底,就有炒不完的底。 這個道理大家都懂,但是真正下來操作往往還是碰到迷思。 對於SAAS,大家還是會難免想,本益比已經到低點了,業績還是很好甚至展望更好,內部人已經開始買回了,或是在AI發展還是會需要資安資訊安全,這個花費總是不能省。其實這些都對。只是弱勢的時候,就什麼都不對了。最嘔還不是自己價值投資一路探底。而是看著隔壁群的大媽,少年股神,買著存儲光通一路槓一個個賺的盆滿鉢滿⋯ 看看投資公司在幹嘛。繼續猛幹AXTI,AAOI,你高我還要更高,很多台股還沒翻正,明後年EPS20小作文先給你寫上去(最近又看了好幾份小作文報告)。有的是高手過招的地方,我們自己是也參與不了。 不要老想只有我知道這隻股票的價值是被錯殺,老想著市場都是錯的 維持強勢股的操作,會讓你受傷少很多,一個是牛市的時候你吃到的紅利讓你有更多肉來扛。在回檔或大盤回測的時候,強勢股永遠是讓你受傷最少的。所以每次回測,我還是習慣窩在強勢股裡避難。回血速度也快一點。 我自己時常也會有迷思,會有想炒底的衝動,今年炒了五次CIFR WULF都失敗但是還是繼續炒,這大概是我自己的迷思。但是大方向還是得要抓著浪頭。
flyingwhale-飞鲸投资笔记@flyingwhale919

x.com/i/article/2042…

中文
5
0
25
2.4K
Neoooo
Neoooo@RNeee49397·
@xiaomustock MU跌了一直加仓做T,DRAM出来我马上就买了,夜盘涨了17%。 远离X,远离噪音
中文
2
0
11
5.2K
川沐|Trumoo🐮
川沐|Trumoo🐮@xiaomustock·
全他妈回来了,艹,最近一段时间各种阴阳怪气,亏钱还要憋着,我不想走就是想践行这个AI行业利润的抽水机,很明显三星海力士赚走了最多的钱,比所有美股公司赚的都多,别人爱怎么说怎么说,我就在存储三巨头耗死了,除非发生变化。
川沐|Trumoo🐮 tweet media
川沐|Trumoo🐮@xiaomustock

切身践行这个策略, 直到AI市场资本的“抽水机”发生变化, 所以没有任何想法因为跌了就不看好了, 涨了就又看好了。 底层根本性的利润流向没有变化前,会一直看好存储。尤其是低估的三星海力士。 等哪天变了,就清仓切换。

中文
50
15
202
170.7K
慈善家
慈善家@cishanjia·
@bitfool1 不坚持手写文章的人,才是比较傻的。
中文
2
0
25
7.6K
比特傻
比特傻@bitfool1·
事到如今 还在推特上还坚持手写文章的人,其实是比较傻的 还把推特作为主要信息源的人,在AI时代落后好几步了
中文
37
4
78
37.7K
✧ 𝕀𝔸𝕄𝔸𝕀 ✧
✧ 𝕀𝔸𝕄𝔸𝕀 ✧@iamai_omni·
缺钱缺疯的大模型公司会毫不犹豫干掉他们可以干掉的任何一个公司,只为了多建一个数据中心,无论这些公司做什么,甚至不排除光刻机、晶圆厂,所以必须把这些大模型送入太空,让它们自给自足。
rick awsb ($people, $people)@rickawsb

完了,claude又要干掉一个行业了 这次是网络安全😅 Anthropic官推一小时前发推,发布了Claude Code Security 网络安全股panw、crwd等应声下跌 看来,网络安全板块,也马上要面对saas刚面临过的大的问题: AI 模型公司,是否会与传统网络安全巨头正面竞争? 网络安全公司会不会被ai淘汰? 首先看短期现实。Claude Code Security 这种能力,最直接冲击的是应用安全(AppSec)领域,尤其是代码扫描、漏洞检测、SAST/DAST 这类工具型公司。因为大模型可以理解代码逻辑路径,而不只是做规则匹配。这在能力层面确实形成了重叠,属于直接竞争。 但对像 Palo Alto Networks、CrowdStrike、Zscaler 这样的综合安全平台,目前还谈不上正面冲击。它们的核心在终端传感器、网络流量控制、云访问通道和实时威胁响应,这些都属于底层数据入口与执行层,而不是单纯的“认知分析”。 问题的关键在于:模型公司是否会沿着能力边界继续扩张。 像 OpenAI 和 Anthropic 这类公司,本质上在做三件事:理解复杂系统、识别异常模式、生成修复策略。这三件事恰恰也是安全平台的核心能力。从认知结构看,重叠度很高。因此,长期边界一定会相遇。 且大模型公司拥有海量用户。 但“用户数量优势 = 安全数据优势”这个逻辑,只成立一半。 海量开发者交互数据、API 使用数据和 prompt 模式数据,这对代码安全、应用层安全有帮助。但真正高价值的安全数据是企业内部日志、终端行为、网络流量、内网拓扑。这些数据掌握在安全厂商手里,而且企业不会轻易让模型公司拿到。 也就是说,模型公司拥有“认知能力优势”,安全公司拥有“场景数据入口优势”。 但如果未来出现所谓的 AI OS——企业级 Agent 操作系统——情况会更复杂。假设企业内部所有系统、日志、权限管理都通过统一 Agent 调度,那么安全将不再是外挂的防护层,而是嵌入式认知系统。谁控制这个 AI OS,谁就拥有异常检测、权限控制和自动响应的决策中枢。 从理论上看,AI OS 完全可能成为安全平台。 但现实约束非常重。要成为真正的安全平台,必须深入终端内核、网络流量、身份系统,满足合规认证,模型公司短期很难替代。 更现实的路径可能是分层融合:AI 成为安全的“大脑”,而安全公司仍然掌握“神经系统和肌肉”。模型负责判断与策略生成,安全平台负责数据采集与执行响应。 未来几年的格局,大概率不是替代,而是融合。模型公司成为认知层基础设施,安全公司继续控制数据入口与执行层。 因此,网络安全领域,短期是局部竞争,中期是能力融合,长期才可能出现平台级重构。而决定胜负的不是谁用户多,而是谁控制企业核心数据流与执行权。

中文
4
2
32
16.2K
Neoooo
Neoooo@RNeee49397·
@xiaomucrypto @aaaa84442232 海力士如果Q2能确定在美股上市,应该也有10-20%的涨幅空间吧,还有在开发中的HBF😋
中文
2
0
0
699
川沐|Trumoo🐮
川沐|Trumoo🐮@xiaomustock·
@aaaa84442232 市场price in 的是这个季度财报, 他们对存储股的下个季度财报完全没概念.
中文
1
0
4
2.2K
川沐|Trumoo🐮
川沐|Trumoo🐮@xiaomustock·
4月之前,资金在存储股都是躺赢。 全球市场找不到比这更确定的事情。 因为他们的业绩指引显示下个季度利润全部再翻一倍以上。 26年产能已经卖完业绩是百分之百确定的, 如果他们 1.降低良率要求, 2.再此过程稍微涨价, 那4月左右的财报利润还会比指引更夸张。 其他任何板块都还要去猜,去炒未来虚无缥缈的业绩。
川沐|Trumoo🐮 tweet media
川沐|Trumoo🐮@xiaomustock

铠侠(Kioxia Holdings,代码:285A) 于2026年2月12日发布的最新季度财报(2025财年第三季度,即2025年10月至12月)。 铠侠本次财报表现极其强劲,尤其是首次公开了此前一直非开示(未公开)的全年利润预测,且数额远超市场预期。以下是为您整理的精简精准数据: 铠侠 (Kioxia) 2025财年Q3 财报核心提炼 报告期: 2025年10月1日 - 12月31日 汇率基准: 1 USD ≈ 153.14 JPY(按 2026/02/12 实时汇率折算) 1. 核心财务业绩(第三季度单季10-12月) 营业收入折合34亿美金,季度净利润5.73亿美金. 2. 累计业绩(2025年4月 - 12月) 9个月累计净利润:9.58 亿美元. 3. 最重磅发布:全年业绩预测 (至2026年3月底) 铠侠此前一直未公开全年盈利预测,今日财报中首次给出,显示出对市场的极强信心: 预计全年净利润:29.6 亿 ~ 33.5 亿美元 解读: 前三季度净利润总和仅9.58亿美金,这意味着 铠侠预计最后一个季度(2026年1-3月)净利润将暴增至约20亿美金! 相交于上个季度翻4倍! 对比美光和闪迪则为下个季度净利润翻1倍! 恐怖至极! 今年3-4月份存储的财报集体有点恐怖了! 不是较全年,而相较于上个季度全部数倍暴增净利润! newsfile.futunn.com/public/NN-Pers…

中文
18
17
136
59.9K