d6i

670 posts

d6i banner
d6i

d6i

@whccchi

some murmur

Taipei City, Taiwan Katılım Mart 2018
322 Takip Edilen31 Takipçiler
李志 | Rational Investing
李志 | Rational Investing@LZRationalnvest·
没有任何存储仓位的散户,该不该追这波存储的浪潮? 现在算不算周期末端风险?还是周期刚刚开始?
中文
63
0
50
45.4K
d6i
d6i@whccchi·
@web3annie 巴菲特那派就是保守投資 沒啥好吹的
中文
0
0
2
848
Annie 所长
Annie 所长@web3annie·
最近都在狂吹 AI 炒股,各种量化模型和智能体满天飞,搞得好像只要插上电,大模型就能自动帮你找到下一个财富密码一样 但巴菲特副手 Ajit Jain 在股东大会直接说了3个字:太天真! CEO Greg Abel 提到 AI 在公司的用处,就是帮人省精力,可以多看10个保险里的漏洞 AI是基于海量历史数据训练出来的,它天生就是共识的产物,追求的是平庸和安全 未来真正值钱的,是你深耕垂直领域多年沉淀下来的直觉,是你对人性的洞察!
中文
37
44
183
49.5K
d6i
d6i@whccchi·
@geniusvczh 沒有豆包的排行榜都是假的
日本語
1
0
0
1.2K
geniusvczh
geniusvczh@geniusvczh·
统计出炉了,成功人士都不用Claude🤪
geniusvczh tweet mediageniusvczh tweet media
中文
42
4
48
18.5K
d6i
d6i@whccchi·
@joakja ok 請繼續
中文
0
0
0
318
秋荣
秋荣@joakja·
起初 人们只是以为 $NVDA 只是一个普通的回调
秋荣 tweet media
中文
68
27
79
52.4K
d6i
d6i@whccchi·
@BTCdayu 一直期待這天的到來
中文
0
0
0
194
大宇
大宇@BTCdayu·
现在各家的算力竞赛还在加速 模型需要的越来越多,尽管收入还是落后 但人们已经不讨论这个了 但如果小模型在一两后达到今天CLAUDE 95%的水平,而且本地运行,速度极快的话,可能会改变很多格局 根据DEEPMIND的老大的推论,他认为一定会发生
中文
49
3
58
17.2K
d6i
d6i@whccchi·
@cnfinancewatch 你這話會被那些早該在工業革命時代就淘汰的人唾棄
中文
0
0
6
3.9K
华尔街观察 Xtrader
华尔街观察 Xtrader@cnfinancewatch·
多数股民没有见过真正的牛市 没有见过真正泡沫 以至于泡沫来的时候,太胆小 因为害怕早早地了结了头寸 我告诉你们,这一轮 GPU DRAM CPU CPO…… 的浪潮将是史无前例的。要炒到大票50倍市盈率以上都不算过分
中文
38
42
418
86.6K
Robinson · 鲁棒逊
Robinson · 鲁棒逊@python_xxt·
from @tombkeeper 2026 年 5 月 1 日,美国国家标准与技术研究院(NIST)下属的人工智能标准与创新中心(CAISI)发布了对 DeepSeek V4 的测试。结论是: 1、DeepSeek V4 是迄今为止 CAISI 评估过的最强大中国 AI 模型。 2、CAISI 认为 DeepSeek V4 的性能与 8 个月前发布的 GPT-5 类似,而 DeepSeek 自己的测试报告则认为与 Opus 4.6 和 GPT-5.4 类似。 3、和同类模型相比,DeepSeek V4 最大的优势是成本低廉。 CAISI 评估报告中最引人注意的是下面这张图。这张图暗示了自 DeepSeek R1 发布以来,中国最强大的模型和美国最强大的模型之间的差距实际上在慢慢扩大。 论文链接放评论区
Robinson · 鲁棒逊 tweet media
中文
40
5
32
10.5K
d6i
d6i@whccchi·
@hhmy27 一再證明 AI 就算有泡沫也只是小泡泡 然後同時還有一堆人期待大崩盤
中文
0
0
0
491
10xMyLife
10xMyLife@hhmy27·
中转站利润太高了,有朋友透露了一下收入,吓人😱
中文
287
26
495
394.9K
d6i
d6i@whccchi·
@miren_41319 有的 台灣菁英人口都集中在 threads 上了
中文
0
0
1
1.3K
迷人的小红
迷人的小红@miren_41319·
怎么这个AI模型排行榜里,没有亚洲科技之光的湾湾呢?
迷人的小红 tweet media
中文
76
3
123
33.3K
d6i
d6i@whccchi·
@KELMAND1 這種自欺欺人的報告連美國人自己都看不下去了
中文
1
1
15
1K
Eason Mao☢
Eason Mao☢@KELMAND1·
NIST(美国国家标准与技术研究院)出的报告说Deepseek v4落后美国AI顶尖模型8个月。 乍一看挺唬人的,但是你如果细看它用的那套评价体系...你就会发现这等于美国政府出具的、关于美国模型在自己擅长的非公开考题上表现更佳的报告: 报告采用了IRT(项目反应理论)的方式进行能力分数转换和回归拟合,给出的结论是DeepSeek V4的Elo约800,落后美国最前沿约8个月。 问题不在于IRT方法本身,它确实比简单平均准确率更科学,能够建模不同题目的难度差异;而在于如何选择“锚定模型”来校准800分的含义。如果校准用的参考模型本身是闭源、非公开评测体系的产物,那么拟合出的“8个月差距”可能反映的是参考系的选择效应,而非纯粹的技术差距。 报告中显示的“差距”主要集中在两个CAISI内部/私有的基准上:CTF-Archive-Diamond(网络安全)和PortBench(软件工程)。在这两项上,DeepSeek V4 Pro的得分显著低于参考模型。 在公开基准上,DeepSeek V4 Pro的表现与顶尖模型相当接近:OTIS-AIME-2025数学基准达到97%(GPT-5.5为100%),PUMaC 2024数学基准达到96%(与GPT-5.5持平),SMT 2025达到96%(GPT-5.5为99%),GPQA-Diamond达到90%(GPT-5.5为96%)。 这也与Hacker News社区对该报告的总结一致—DeepSeek在公开基准上表现优异,但内部私有基准是差距的主要来源。CAISI内部基准的非公开性质带来了一个根本性的测量问题:这些基准无法被独立验证。 科学评估的基本原则是可重复性和透明度。当基准本身不公开,而模型开发者(尤其是非美国企业)无法获取其具体任务和评判标准时,意味着这种评估本身就是个黑箱。 报告单独承认了DeepSeek V4的成本效率优势:在7个基准测试中有5个的性价比优于GPT-5.4 mini(注意,这是拿最便宜GPT的来比都比不过),但在加权解读时明显给了这一优势较低的权重。 DeepSeek V4-Pro-Max在LiveCodeBench上以93.5分位列所有模型全球第一,在Codeforces评分上以3206分超过GPT-5.4的3168分和Gemini 3.1的3052分,在SWE-bench Verified上达到80.6%与Claude Opus 4.6持平,在Agentic Coding基准上也超过Claude和Gemini。这意味着在编程这一大模型商业化最核心的应用场景之一,DeepSeek已具备与顶尖闭源模型正面竞争的能力。 报告聚焦的网络安全、抽象推理等领域的落后固然存在,但商业落地的核心价值恰恰在于用户最常用的数学推理、科学计算、代码生成等高频任务,而非某些仅出现在评测中的边缘维度。 所以这份报告真正的价值不是技术评测,而是政治安慰剂。
Eason Mao☢ tweet media
中文
42
14
85
17.5K
d6i
d6i@whccchi·
@WallStTV 美吹帳號全面啟動了 嘻嘻
中文
0
0
2
503
華爾街電視 Wall St TV
美国国家标准与技术研究院锐评DeepSeek V4 Pro:目前最强中国AI,真实能力落后美国最前沿约8个月。虽然DeepSeek官方自测时觉得已经跟刚发布2个月的GPT-5.4 差不多了,但NIST用没有公开过的私密题库一考,发现它实际水平大概相当于8个月前发布的GPT-5。DeepSeek V4 Pro被拿来和GPT-5.4 mini放在一起讨论
華爾街電視 Wall St TV tweet media
中文
33
8
31
12.1K
d6i
d6i@whccchi·
@techeconomyana 鎖一堆晶片 結果拉不到一年 連SOTA 模型都沒真的比較 行
中文
0
0
0
463
d6i
d6i@whccchi·
@mranti 不拿中國 SOTA 的放進數據 真的很怕
中文
0
0
0
54
d6i
d6i@whccchi·
@bboczeng 沒拿 glm qwen 的數據?真的會怕 嘻嘻
中文
0
0
1
3.1K
勃勃OC
勃勃OC@bboczeng·
操,中美模型的差距 原来是越来越大, 而不是越来越小了?
勃勃OC tweet media
中文
418
51
825
398K
JewBiz
JewBiz@JewBizLogic·
今天成都报复社会事件 太惨了
中文
386
24
534
410.1K
d6i
d6i@whccchi·
@ShanghaoJin 已經反轉了 官方都教你用對待笨模型的那套去跟 opus 下 prompt
日本語
0
0
0
421
Herman Jin
Herman Jin@ShanghaoJin·
作为一个重度用户,我没用过Mythos。但这几天闭关重构代码,感觉5.5确实非常好用 期待OAI口碑逆转
中文
30
2
135
57.4K
d6i
d6i@whccchi·
@rwayne 隨便買0050都能被稱作懂投資的時代
中文
1
0
0
2.3K
Roland.W
Roland.W@rwayne·
台湾这下真见证历史了。 刚公布的数据当中 Q1 GDP 成长 13.69%,39 年来单季新高。 出口比原本预测多了 148 亿美金,半导体加资通产品占了出口 78.5%。资本设备进口增长33%、股市成交值增长117%、春节出游增长125%。 半导体一个产业把整座岛拉到 39 年高点啊
Roland.W tweet media
中文
25
5
56
81.4K
d6i
d6i@whccchi·
@AYi_AInotes claude 廢了吧 明確指令我用 kimi / mimo 做的還比他快又確定
中文
0
0
0
266
阿绎 AYi
阿绎 AYi@AYi_AInotes·
GPT-5.5 和 Claude Opus 4.7 同一天发了官方提示工程指南。 两家的建议完全相反, 1️⃣OpenAI 说:少给流程,说清楚你要什么结果,让模型自己选路径。 2️⃣Anthropic 说:别指望它猜你意思,意图、格式、成功标准,一个都不能含糊。 一个嫌你管太多,一个嫌你说不清楚。 Claude 首席工程师 Boris Cherny 说,他自己都需要几天适应🤣 → Anthropic Claude Opus 4.7 迁移指南: platform.claude.com/docs/en/build-… → OpenAI GPT-5.5 提示工程指南: developers.openai.com/api/docs/guide… → OpenAI《使用 GPT-5.5》官方文档: developers.openai.com/api/docs/guide… → Boris Cherny(Claude Code 首席工程师) → t.co/ZXSgy1uIMA 对数百个社区帖子的深度分析(提示具体性与输出质量高度正相关)
阿绎 AYi@AYi_AInotes

我终于明白为啥最近很多人都在说,GPT和Claude突然变笨了, 昨天OpenAI和Anthropic同时发布了官方提示工程指南, 看完我才发现,并不是模型变笨了, 是它们终于聪明到,不再容忍人类懒得想清楚了🤣🤣🤣 而且最有意思的是, 两个模型的进化方向,居然是完全相反的, Claude Opus 4.7变得越来越字面, 以前它会主动帮你补全模糊的指令, 现在你说什么它就做什么,多一个字都不会猜🤣🤣 GPT-5.5变得越来越自主, 以前你要手把手教它每一步怎么做, 现在你只要告诉它你想要什么结果,它自己会选最优路径, 所以老提示失效的原因也完全相反, 用在Claude上的模糊提示,会得到越来越窄的输出, 用在GPT上的详细流程,会变成多余的噪声, 过去三年我们一直在学怎么教模型做事, 现在反过来了, 模型开始要求我们,先把自己的思考结构化, 其实就是提示工程的本质, 已经从教模型怎么做,变成了先把自己想明白, 所以真正的瓶颈可能不是模型的能力,而是写提示的那个人的思考清晰度, 我感觉以后赢的人,不会是提示写得最长最复杂的人,而是那个最知道自己真正想要什么的人🤔

中文
18
182
1.1K
195.6K
d6i
d6i@whccchi·
@dmjk001 不就服務商流動性不足 全部都在供應鏈了
中文
0
0
0
2.6K
每日快讯
每日快讯@dmjk001·
彭博:高盛分析师建议投资 AI 超大规模服务商而非芯片制造商 "我们建议做多超大规模企业,同时低配半导体股,"高盛股票研究联席主管、资深半导体分析师科维洛在周四给客户的一份报告中写道。"这一观点的出发点是,市场对超大规模企业的投资回报率已计入了相当程度的怀疑,这反映在该类公司估值倍数的大幅压缩上。" 科维洛认为,有两种情况会使这种相对价值交易获得回报。第一种情况是,超大规模企业开始展示出积极的投资回报率,使投资者对其支出不那么警惕,从而推动这些公司的估值回升。他表示,鉴于市场已经对芯片股给予了回报,它们的上涨空间将较小。 "我们认为这是该交易策略的最佳情境,因为超大规模云服务商将因现金流前景改善而迎来显著反弹,而半导体股将因云服务商资本支出降低对其营收的负面影响而遭遇重挫。"他说道。
每日快讯 tweet media
中文
12
51
239
74.5K
阿绎 AYi
阿绎 AYi@AYi_AInotes·
我终于明白为啥最近很多人都在说,GPT和Claude突然变笨了, 昨天OpenAI和Anthropic同时发布了官方提示工程指南, 看完我才发现,并不是模型变笨了, 是它们终于聪明到,不再容忍人类懒得想清楚了🤣🤣🤣 而且最有意思的是, 两个模型的进化方向,居然是完全相反的, Claude Opus 4.7变得越来越字面, 以前它会主动帮你补全模糊的指令, 现在你说什么它就做什么,多一个字都不会猜🤣🤣 GPT-5.5变得越来越自主, 以前你要手把手教它每一步怎么做, 现在你只要告诉它你想要什么结果,它自己会选最优路径, 所以老提示失效的原因也完全相反, 用在Claude上的模糊提示,会得到越来越窄的输出, 用在GPT上的详细流程,会变成多余的噪声, 过去三年我们一直在学怎么教模型做事, 现在反过来了, 模型开始要求我们,先把自己的思考结构化, 其实就是提示工程的本质, 已经从教模型怎么做,变成了先把自己想明白, 所以真正的瓶颈可能不是模型的能力,而是写提示的那个人的思考清晰度, 我感觉以后赢的人,不会是提示写得最长最复杂的人,而是那个最知道自己真正想要什么的人🤔
阿绎 AYi tweet media阿绎 AYi tweet media
中文
300
2.1K
9.8K
1.7M