Bill_DO_A_BIT多少做点
205 posts

Bill_DO_A_BIT多少做点
@Bill_Do_A_Bit
ADHD→ Trader → AI Explorer/Liberal Hunter 用 AI 搭系统、建工具、做交易 认知→具身 | 最小行动 → 系统性迭代 AI · 生命科学 · Markets ⚡ 多少做点
Sumali Mayıs 2017
228 Sinusundan306 Mga Tagasunod
Naka-pin na Tweet

@Alex_perception 未来怎么样呢?未来咱也不敢想。反正我只知道美国债务创新高了。
控制成本,开源节流 对于个人能做的只有这些了
中文

05 反向传播:误差沿网络向后流动,按贡献比例分配责任。最关键的算法被发明者搁置了三年
06 布尔家族闭环:发明布尔代数的人的曾曾外孙,推翻了布尔代数的统治。然后拿了诺贝尔奖,辞职去警告 AI 的风险
07 废品与卧室:1951 年是轰炸机零件,2012 年是两块游戏显卡。错误率从 26.2% 碾压到 15.3%,有人不信,自己复现了一遍
08 168 年链条:每个人只看到了拼图的一部分。跨越四个学科的接力拼出了完整画面
每张卡片底部都有一句核心判断。如果你只看这 8 个概念,就能抓住神经网络 168 年兴衰最核心的因果链。




Bill_DO_A_BIT多少做点@Bill_Do_A_Bit
你大概已经听过"神经网络"这个词几百遍了。但很少有人知道,这项今天驱动一切 AI 产品的核心技术,在历史上被判过两次死刑。 第一次,1969 年,一个数学家用一本书证明了它连最简单的逻辑问题都解不了。整个领域冻了将近 15 年。第二次,1990 年代末,连以"神经网络"命名的学术会议都开始拒绝神经网络论文。 从 1854 年布尔代数被发明,到 2022 年 ChatGPT 上线,168 年。中间死了两次,活了三次。我之前写了一篇长文拆这段历史,写完发现里面有 8 个核心概念之间的因果关系用纯文字很难一次性讲清楚。所以花了几天做了这套概念地图,8 张卡片,把 168 年的技术链做了一次结构化拆解。 8 张卡片覆盖了什么: 01 XOR 问题:AND 和 OR 能用一条线分开,XOR 不行——这不是程度问题,是本质问题 02 感知器困境:能学的太弱,够强的不会学。明斯基用一本书锁死了这个二选一 03 过早正确:好想法的敌人不是坏想法,是时间。罗森布拉特等了 17 年,鲁梅尔哈特又等了 26 年 04 梯度下降:蒙着眼睛下山,用脚感受斜坡方向。今天所有深度学习系统都建立在这个范式上
中文

你大概已经听过"神经网络"这个词几百遍了。但很少有人知道,这项今天驱动一切 AI 产品的核心技术,在历史上被判过两次死刑。
第一次,1969 年,一个数学家用一本书证明了它连最简单的逻辑问题都解不了。整个领域冻了将近 15 年。第二次,1990 年代末,连以"神经网络"命名的学术会议都开始拒绝神经网络论文。
从 1854 年布尔代数被发明,到 2022 年 ChatGPT 上线,168 年。中间死了两次,活了三次。我之前写了一篇长文拆这段历史,写完发现里面有 8 个核心概念之间的因果关系用纯文字很难一次性讲清楚。所以花了几天做了这套概念地图,8 张卡片,把 168 年的技术链做了一次结构化拆解。
8 张卡片覆盖了什么:
01 XOR 问题:AND 和 OR 能用一条线分开,XOR 不行——这不是程度问题,是本质问题
02 感知器困境:能学的太弱,够强的不会学。明斯基用一本书锁死了这个二选一
03 过早正确:好想法的敌人不是坏想法,是时间。罗森布拉特等了 17 年,鲁梅尔哈特又等了 26 年
04 梯度下降:蒙着眼睛下山,用脚感受斜坡方向。今天所有深度学习系统都建立在这个范式上




Bill_DO_A_BIT多少做点@Bill_Do_A_Bit
中文

@Alex_perception 怪不得,反正生猪这个品种,我觉得对散户真的不太友好。
本身农产品做起来就比较难,生猪可能还要再看一段时间吧。或许最近这段时间热点到的的确也值得关注,反正对于生猪期权,在适当的情况下可以多关注一些。
中文

我再补一句啊,目前是国家发号令,资金配合炒作。但如果猪企就是死扛,那么这波涨势也持续不了多久。——目前还没有看到大范围直接行政性直接干预的情况。
PS:两手策略准备做好,特别提示:生猪期货是小品种,且曾经有多次严重的操纵行为,如果是新手的话,我真心建议不要去参与。
而且按照消费习惯来看,5月基本就进入淡季了,按照母猪繁育时间来看,10个月前正好是这一轮产能的巅峰。所以近月的情况肯定不咋地。#投资
Alex_感知@Alex_perception
对于猪,国家最近已经有3次明显的提点了,甚至都到了政治局层面,再读不懂信号,就没法玩了。。。#投资
中文

如果2026年只跟一个投资策略,我选它。
文章发布于纳斯达克周跌12%、全球能源危机和战争阴影交叠的2026年3月。
大多数人在这种时候只买ETF然后祈祷,
但tkzXBT拿出了另一套策略:30%比特币,25%QQQ,20%押注马斯克系,10%给Hyperliquid,10%给以太坊,5%给Robinhood。
我注意到一个反常识的细节:他给Hyperliquid的仓位和以太坊一样重。
这家链上交易所每天200万美元费用,97%用来买回HYPE。
更夸张的是,战争爆发后它每天处理超过10亿美元的石油交易,成了全球唯一24小时开放的多资产市场。
Hyperliquid 只是一家上线不到3年的交易所,它打败了华尔街的巨头们。
这组配置赌的是下一次金融基础设施长什么样。
比特币占30%基于物理稀缺性,
QQQ占25%基于AI和半导体垄断,
马斯克系20%赌的是一个从火箭到人形机器人再到星链的闭环,他早就不是汽车公司了。
以太坊虽然被Solana追着打,但稳定币生态60%份额、1.6万亿美金锁在链上,这个现实没必要回避。
最后5%的Robinhood是我觉得最有趣的细节。财富代际转移即将到来,年轻人会继续用老牌券商吗?我不这么认为。
这组仓位虽然激进,但逻辑是通的:在恐慌里做多波动率,而不是躲进现金。
等Q2他开始公开业绩跟踪,我会持续关注。
#投资组合 #比特币 #AI #加密货币 #科技趋势

tkz@tkzXBT
中文

@block0_eth 这的确是一个很值得研究的策略,回头可以重点再开发一下。我对这个逻辑很感兴趣,等会儿我自己再去复盘一下
中文

最近花了很长时间拆一本书。不是技术手册,是一部关于"机器能否思考"的 300 年探索史。
书叫《The Laws of Thought》,作者是普林斯顿教授 Tom Griffiths。他做了一件大部分 AI 书不做的事:把今天的技术争论放回 300 年的历史脉络中。规则派和学习派的战争不是从深度学习开始的,是从 1854 年布尔发明逻辑代数那天就埋下的。
读这本书有一种很奇特的感觉:书里出现的每一个名字,都是今天 AI 行业里呼风唤雨的人。辛顿 2024 年拿了诺贝尔奖。杨立昆离开 Meta 创办了世界模型公司。苏茨克维从 OpenAI 出走。李飞飞从干洗店移民女孩变成斯坦福教授和 ImageNet 的缔造者。这本书读起来像一部众神谱,而众神还活着。
但最吸引我的不是众神的光芒,是他们之间的恩怨和误判。1958 年,心理学家罗森布拉特(Frank Rosenblatt)造了一台会学习的机器,有人问他机器做不到什么,他说:"爱。希望。绝望。简而言之,人性。"11 年后,他的高中同学、数学家明斯基(Marvin Minsky)用一本书杀死了整个领域。而明斯基自己就造过神经网络——1951 年,用退役轰炸机的零件。
复活它的人叫辛顿。在剑桥换了三个专业,当了一年木匠。他和从 1500 人小镇走出来的心理学家鲁梅尔哈特(David Rumelhart)一起在飞机上推导出了反向传播,然后搁置了好几年。几年后辛顿重新跑了代码:"你还记得你那个算法吗?它似乎真的有效。"
还有一条暗线——辛顿是乔治·布尔的曾曾外孙。布尔 1854 年发明布尔代数,催生了统治 AI 前半个世纪的"规则与符号"路线。而他的曾曾外孙,发明了替代规则的方法。创立规则的家族,出了一个摧毁规则统治的人。
我把这些故事整理成了一篇长文。168 年,死了两次,活了三次。里面有不少中文互联网上很少有人写到的细节:辛顿家族和中国六十年的渊源、布尔家五代人的反叛基因、鲁梅尔哈特被认知疾病吞噬的结局。
好想法的敌人不是坏想法。是时间。
Bill_DO_A_BIT多少做点@Bill_Do_A_Bit
中文

我觉得不管什么样的模型一定会出现问题,只要出现问题,必然需要实时更新。
包括现在所有的语言大模型,因为语言只是理解这个世界的一个维度,甚至它都不是最好的维度。语言本身并不是天然的,它是一个强人工监督学习的产物,也是一个人工压缩的产物。反倒是那些天然的、更高维度的东西,是现在语言大模型所达不到的。
语言大模型之所以会出现各种各样的幻觉,正是因为它只是一个低维度的、人工制造的产物。也就是说,语言大模型本身其实无法真正实现“世界模型”,它只是一个初步的选择。
有意思的是,我其实非常不赞同你的说法。因为这个世界肯定是先有世界,后有语言。你看有那么多的物种和生物,它们并没有语言,难道它们就不能感知到这个世界吗?显然不是。
比方说有些动物:
1. 它们拥有极其灵敏的听觉或嗅觉,虽然不是用语言来表述,但对世界的感知同样敏锐。你能说这些动物的存在就是空中楼阁吗?
2. 像海底的鲸鱼,还能够通过电磁波的形式进行交流。
我觉得这些才是更高维度的东西。语言仅仅是这个世界里的一个维度,如果硬要把世界模型压缩、蒸馏成一个语言大模型,我觉得这才是舍本逐末,也是真正悲哀的东西。
我觉得世界模型是必然的产物。现在所有的语言大模型也都在往世界模型这个方向走,这是已经发生的事情,没有什么好争议的。
中文

@Bill_Do_A_Bit 在世界模型中出了问题,我们要如何去表达那个存在的问题?还是世界模型一开始就是完美的不需要更新。无论世界模型多么奇妙,没有语言模型的存在世界模型只是空中楼阁
中文

@luozichao60602 2022年 GPT 的横空出世,让一切都显得那么顺理成章,好像神经网络就是一步登天。
其实不是这样的,这里面的弯弯绕绕、曲曲折折可多了。回顾这一段人工智能发展的历史,真的能够学到不少东西。
中文


@Bill_Do_A_Bit 我们是3月份开始关注,4月份才敢确认,而且它的上涨如果是操纵的话,短时间不会有任何调整。就很让新人蒙圈。
中文

@RongshengWang 谢谢。我觉得这是一种表扬。
因为我是尽量把谢三林说的这些话,翻译成我自己以及其他人便于理解的语言。但说实话,我的本意并不是说要做抖音。至于语言“抖音化”,我觉得或许是一种遗憾吧。
谢谢你的意见。
中文


