Bill_DO_A_BIT多少做点

200 posts

Bill_DO_A_BIT多少做点

Bill_DO_A_BIT多少做点

@Bill_Do_A_Bit

ADHD→ Trader → AI Explorer/Liberal Hunter 用 AI 搭系统、建工具、做交易 认知→具身 | 最小行动 → 系统性迭代 AI · 生命科学 · Markets ⚡ 多少做点

参加日 Mayıs 2017
227 フォロー中298 フォロワー
block0
block0@block0_eth·
@Bill_Do_A_Bit 好文啊,我才意识到几乎失去了读长文的能力,
中文
1
0
0
14
Bill_DO_A_BIT多少做点
Bill_DO_A_BIT多少做点@Bill_Do_A_Bit·
@Alex_perception 怪不得,反正生猪这个品种,我觉得对散户真的不太友好。 本身农产品做起来就比较难,生猪可能还要再看一段时间吧。或许最近这段时间热点到的的确也值得关注,反正对于生猪期权,在适当的情况下可以多关注一些。
中文
0
0
0
7
Alex_感知
Alex_感知@Alex_perception·
@Bill_Do_A_Bit 要不然呢。。。而且期货交割也操蛋,用活猪。。。
中文
1
0
0
13
Alex_感知
Alex_感知@Alex_perception·
我再补一句啊,目前是国家发号令,资金配合炒作。但如果猪企就是死扛,那么这波涨势也持续不了多久。——目前还没有看到大范围直接行政性直接干预的情况。 PS:两手策略准备做好,特别提示:生猪期货是小品种,且曾经有多次严重的操纵行为,如果是新手的话,我真心建议不要去参与。 而且按照消费习惯来看,5月基本就进入淡季了,按照母猪繁育时间来看,10个月前正好是这一轮产能的巅峰。所以近月的情况肯定不咋地。#投资
Alex_感知@Alex_perception

对于猪,国家最近已经有3次明显的提点了,甚至都到了政治局层面,再读不懂信号,就没法玩了。。。#投资

中文
6
0
28
12.6K
block0
block0@block0_eth·
如果2026年只跟一个投资策略,我选它。 文章发布于纳斯达克周跌12%、全球能源危机和战争阴影交叠的2026年3月。 大多数人在这种时候只买ETF然后祈祷, 但tkzXBT拿出了另一套策略:30%比特币,25%QQQ,20%押注马斯克系,10%给Hyperliquid,10%给以太坊,5%给Robinhood。 我注意到一个反常识的细节:他给Hyperliquid的仓位和以太坊一样重。 这家链上交易所每天200万美元费用,97%用来买回HYPE。 更夸张的是,战争爆发后它每天处理超过10亿美元的石油交易,成了全球唯一24小时开放的多资产市场。 Hyperliquid 只是一家上线不到3年的交易所,它打败了华尔街的巨头们。 这组配置赌的是下一次金融基础设施长什么样。 比特币占30%基于物理稀缺性, QQQ占25%基于AI和半导体垄断, 马斯克系20%赌的是一个从火箭到人形机器人再到星链的闭环,他早就不是汽车公司了。 以太坊虽然被Solana追着打,但稳定币生态60%份额、1.6万亿美金锁在链上,这个现实没必要回避。 最后5%的Robinhood是我觉得最有趣的细节。财富代际转移即将到来,年轻人会继续用老牌券商吗?我不这么认为。 这组仓位虽然激进,但逻辑是通的:在恐慌里做多波动率,而不是躲进现金。 等Q2他开始公开业绩跟踪,我会持续关注。 #投资组合 #比特币 #AI #加密货币 #科技趋势
block0 tweet media
tkz@tkzXBT

x.com/i/article/2047…

中文
4
1
4
311
Bill_DO_A_BIT多少做点
Bill_DO_A_BIT多少做点@Bill_Do_A_Bit·
@block0_eth 这的确是一个很值得研究的策略,回头可以重点再开发一下。我对这个逻辑很感兴趣,等会儿我自己再去复盘一下
中文
1
0
0
9
Alex_感知
Alex_感知@Alex_perception·
@Bill_Do_A_Bit 做猪有个方式,就是提前小仓位埋伏。等飞。。。中间别加仓。后面做空去
中文
1
0
0
17
Bill_DO_A_BIT多少做点
Bill_DO_A_BIT多少做点@Bill_Do_A_Bit·
最近花了很长时间拆一本书。不是技术手册,是一部关于"机器能否思考"的 300 年探索史。 书叫《The Laws of Thought》,作者是普林斯顿教授 Tom Griffiths。他做了一件大部分 AI 书不做的事:把今天的技术争论放回 300 年的历史脉络中。规则派和学习派的战争不是从深度学习开始的,是从 1854 年布尔发明逻辑代数那天就埋下的。 读这本书有一种很奇特的感觉:书里出现的每一个名字,都是今天 AI 行业里呼风唤雨的人。辛顿 2024 年拿了诺贝尔奖。杨立昆离开 Meta 创办了世界模型公司。苏茨克维从 OpenAI 出走。李飞飞从干洗店移民女孩变成斯坦福教授和 ImageNet 的缔造者。这本书读起来像一部众神谱,而众神还活着。 但最吸引我的不是众神的光芒,是他们之间的恩怨和误判。1958 年,心理学家罗森布拉特(Frank Rosenblatt)造了一台会学习的机器,有人问他机器做不到什么,他说:"爱。希望。绝望。简而言之,人性。"11 年后,他的高中同学、数学家明斯基(Marvin Minsky)用一本书杀死了整个领域。而明斯基自己就造过神经网络——1951 年,用退役轰炸机的零件。 复活它的人叫辛顿。在剑桥换了三个专业,当了一年木匠。他和从 1500 人小镇走出来的心理学家鲁梅尔哈特(David Rumelhart)一起在飞机上推导出了反向传播,然后搁置了好几年。几年后辛顿重新跑了代码:"你还记得你那个算法吗?它似乎真的有效。" 还有一条暗线——辛顿是乔治·布尔的曾曾外孙。布尔 1854 年发明布尔代数,催生了统治 AI 前半个世纪的"规则与符号"路线。而他的曾曾外孙,发明了替代规则的方法。创立规则的家族,出了一个摧毁规则统治的人。 我把这些故事整理成了一篇长文。168 年,死了两次,活了三次。里面有不少中文互联网上很少有人写到的细节:辛顿家族和中国六十年的渊源、布尔家五代人的反叛基因、鲁梅尔哈特被认知疾病吞噬的结局。 好想法的敌人不是坏想法。是时间。
Bill_DO_A_BIT多少做点@Bill_Do_A_Bit

x.com/i/article/2049…

中文
0
0
0
164
Bill_DO_A_BIT多少做点
Bill_DO_A_BIT多少做点@Bill_Do_A_Bit·
我觉得不管什么样的模型一定会出现问题,只要出现问题,必然需要实时更新。 包括现在所有的语言大模型,因为语言只是理解这个世界的一个维度,甚至它都不是最好的维度。语言本身并不是天然的,它是一个强人工监督学习的产物,也是一个人工压缩的产物。反倒是那些天然的、更高维度的东西,是现在语言大模型所达不到的。 语言大模型之所以会出现各种各样的幻觉,正是因为它只是一个低维度的、人工制造的产物。也就是说,语言大模型本身其实无法真正实现“世界模型”,它只是一个初步的选择。 有意思的是,我其实非常不赞同你的说法。因为这个世界肯定是先有世界,后有语言。你看有那么多的物种和生物,它们并没有语言,难道它们就不能感知到这个世界吗?显然不是。 比方说有些动物: 1. 它们拥有极其灵敏的听觉或嗅觉,虽然不是用语言来表述,但对世界的感知同样敏锐。你能说这些动物的存在就是空中楼阁吗? 2. 像海底的鲸鱼,还能够通过电磁波的形式进行交流。 我觉得这些才是更高维度的东西。语言仅仅是这个世界里的一个维度,如果硬要把世界模型压缩、蒸馏成一个语言大模型,我觉得这才是舍本逐末,也是真正悲哀的东西。 我觉得世界模型是必然的产物。现在所有的语言大模型也都在往世界模型这个方向走,这是已经发生的事情,没有什么好争议的。
中文
1
0
0
6
Zhong鐘
Zhong鐘@yangzhong01·
@Bill_Do_A_Bit 在世界模型中出了问题,我们要如何去表达那个存在的问题?还是世界模型一开始就是完美的不需要更新。无论世界模型多么奇妙,没有语言模型的存在世界模型只是空中楼阁
中文
1
0
0
20
Bill_DO_A_BIT多少做点
Bill_DO_A_BIT多少做点@Bill_Do_A_Bit·
@luozichao60602 2022年 GPT 的横空出世,让一切都显得那么顺理成章,好像神经网络就是一步登天。 其实不是这样的,这里面的弯弯绕绕、曲曲折折可多了。回顾这一段人工智能发展的历史,真的能够学到不少东西。
中文
0
0
0
11
Bill_DO_A_BIT多少做点
Bill_DO_A_BIT多少做点@Bill_Do_A_Bit·
其实我之前和你一样,一直到4月份那一波上涨完,价格就突然拉升。反正现在政策面和基本面其实是有共振的,但是它之前这个下跌实在是太狠了。 反正我是不看猪了,农产品里生猪这个环节真的看不了。我情愿去看油脂相关的,也不再看猪了。猪肉真的是太容易被控制了,特别是这种小的农产品,我感觉那种做庄性特别强。
中文
2
0
1
124
Alex_感知
Alex_感知@Alex_perception·
@Bill_Do_A_Bit 我们是3月份开始关注,4月份才敢确认,而且它的上涨如果是操纵的话,短时间不会有任何调整。就很让新人蒙圈。
中文
1
0
1
435
Bill_DO_A_BIT多少做点
Bill_DO_A_BIT多少做点@Bill_Do_A_Bit·
是的,我在梳理这个故事的时候,真的发现了很多那种“时代的眼泪”。没有什么技术是一帆风顺就被推上来的,即便现在 AI 可能是改变一切的技术,在它之前也经历过如此的低潮。 所以回看这段历史的时候,其实挺唏嘘的。但更有意思的是,完全经历过这段历史的人都还在呢,这真的让我觉得 AI 这个时代真的有点那种“群星闪耀”的感觉,真的是群星闪耀。
中文
1
0
0
46
Alex_感知
Alex_感知@Alex_perception·
@Bill_Do_A_Bit 没想到啊,这技术竟然是如此早就提出了。但说真的这种被时代错杀的东西挺多的。
中文
1
0
1
244
Bill_DO_A_BIT多少做点
Bill_DO_A_BIT多少做点@Bill_Do_A_Bit·
@RongshengWang 谢谢。我觉得这是一种表扬。 因为我是尽量把谢三林说的这些话,翻译成我自己以及其他人便于理解的语言。但说实话,我的本意并不是说要做抖音。至于语言“抖音化”,我觉得或许是一种遗憾吧。 谢谢你的意见。
中文
0
0
0
80
Bill_DO_A_BIT多少做点
Bill_DO_A_BIT多少做点@Bill_Do_A_Bit·
@zeliezzz 我觉得这里的 vision 是一个泛化吧。除了您说的 vision,他自己其实还提到了更多其他维度,比方说嗅觉、听觉,这些都是比语言更高维度的感觉。 其实把这些更高维度、更多维度的感受集合起来,才是他说的“世界模型”,并不完全是现在只看到的语言模型这一种维度。
中文
0
0
0
57
Z
Z@zeliezzz·
@Bill_Do_A_Bit 可为什么世界模型=vision?我们对世界的感知又不是只通过视觉。
中文
1
0
0
357
Bill_DO_A_BIT多少做点
Bill_DO_A_BIT多少做点@Bill_Do_A_Bit·
我觉得尿急和用语言表达是完全不一样的。 因为不管你用什么样的语言,尿急这种感受都是直接产生的,并不作用于语言。不是说你会说“尿急”,你才会尿急。就算你没有语言功能,动物也一样会有尿急。 尿急是一种更本能、更底层的反应。这也就是为什么谢赛宁会说,如果把人类和这个世界压缩成一天 24 小时,语言是在最后 8 秒钟才产生的,而尿急可能从我们生物诞生的那一刻就已经开始了。
中文
0
0
0
77
一九
一九@19n9n·
@Bill_Do_A_Bit 只是世界模型罢了,我反而觉得语言模型才是目前对的形态。这世界上99%的人说不清楚自己了解的东西,但是99%的尿急了会去找厕所。。。
中文
1
0
1
367
Bill_DO_A_BIT多少做点
Bill_DO_A_BIT多少做点@Bill_Do_A_Bit·
@Zhirong_Ron_Lu 是的,现在的视频生成模型的基底还是语言大模型,本身就是在结合。 其实世界模型的话,它本身是作为一种可能作为一个更基底的、更高维度的模型存在的,只是这一条路现在还没有那么成熟。
中文
0
0
1
147
Ron Lu
Ron Lu@Zhirong_Ron_Lu·
@Bill_Do_A_Bit 但是视频也并不能完全的表现world啊 感觉两者结合起来会更好一些
中文
1
0
0
222
Bill_DO_A_BIT多少做点
Bill_DO_A_BIT多少做点@Bill_Do_A_Bit·
@yangzhong01 但是有很多时候,仅仅是因为语言只是我们意识中的一个维度。说实话,语言在表达中往往会出现问题,因为语言本身就是对现实世界的一种压缩。 毕竟这个世界并不是语言,现实世界的组成维度要比语言高得多。我其实不太相信那种“语言即一切”、“语言即世界”的理论。
中文
1
0
0
78
Zhong鐘
Zhong鐘@yangzhong01·
@Bill_Do_A_Bit 猩猩甚至昆虫在物理世界里可以预测下一个状态,猩猩的语言能力,推理能力如何?你确定你思考时候不用语言?学英语到一定程度,有一天你可能会意识到你在用英文而不是中文思考。
中文
1
0
2
389
Bill_DO_A_BIT多少做点
Bill_DO_A_BIT多少做点@Bill_Do_A_Bit·
是的,这也就是他们所说的,其实语言大模型本身也是一种人工强监督学习的结果,而不是一种自然的维度。 语言本身就是一种高度压缩、高度蒸馏的产物,这也是为什么谢赛宁说,语言大模型的问题解释了为什么它的幻觉是不可避免的。这也就是他们做世界模型的意义。 其实我觉得谢赛宁他们的确选择了一个很有意义的赛道,不管能不能做成。我也相信他说的,语言大模型最容易训练的那一部分确实已经都完成了,现在最难、更高维度的就是要去做这种世界模型,不管走什么样的路线。
中文
0
0
0
90
明 盛
明 盛@akiraxheng·
@Bill_Do_A_Bit 世界模型是训练动物直觉 语言模型是在思想基础上训练。语言模型或许无法训练出一个有视觉直觉的智能,但哪怕你能靠世界模型训练一个完全模拟的人类婴儿或者一条狗出来,但要从这个基础上再完全脱离语言模型从零搭建思想层,恐怕需要的参数规模是现在大模型的百倍。简单说,思想是压缩过的信息。
中文
1
0
2
133