加浓🧊美式

5.3K posts

加浓🧊美式

加浓🧊美式

@_sumplogp

Cogito, ergo sum

Katılım Haziran 2011
227 Takip Edilen1.8K Takipçiler
加浓🧊美式
加浓🧊美式@_sumplogp·
The most valuable harness for LLM is human.
English
0
0
0
54
加浓🧊美式
加浓🧊美式@_sumplogp·
I wonder how many tokens are wasted due to the python version nightmare?!
加浓🧊美式 tweet media
English
0
0
0
131
Decent Cloud
Decent Cloud@DecentCloud_org·
@_sumplogp AI runs the experiments. Now the bottleneck is GPU capacity you can trust at scale.
English
1
0
0
18
加浓🧊美式
加浓🧊美式@_sumplogp·
A small experiment with #autoresearch, in 30 hours it tried nearly 80 times, find 17 improvements and the loss dropped nearly 77%, which equals to 5 days work of a middle-level researcher. CONS: 1. only works on single GPU 2. only supports one metric
加浓🧊美式 tweet media
English
1
0
0
240
Ran Neuner
Ran Neuner@cryptomanran·
Dear China. Please don't attack Taiwan now. My portfolio just can't handle it.. Best Regards, Ran
English
442
232
5K
631.8K
Cyandev
Cyandev@unixzii·
感觉就算是 Opus 4.6 也不太会写 Rust,虽然知道很多概念,但一到干活就全都是以通过编译为目的,拆了东墙补西墙
Cyandev tweet media
中文
13
2
35
8.4K
Vonng
Vonng@RonVonng·
刚才打了一场关于 本体论的辩论,大获全胜,但是感觉很空虚 —— 对手车轱辘话来回说,浪费了俺两个小时。
中文
1
0
9
2.6K
tison
tison@tison1096·
确实秒杀各种搜索应用( 以前都要自己查文档,搜经验,问 Support .. 现在都是第一时间问 AI 算了。
tison tweet media
中文
2
0
9
1.5K
加浓🧊美式
加浓🧊美式@_sumplogp·
the code coded by Claude code are out of control
English
0
0
0
132
毒猫猫🤔
毒猫猫🤔@NekoStranding·
我一直认为:研究多 Agent 团队结构是邪路 研究记忆、知识结构、上下文管理,和工作流就行了。非要说的话加个异步并发 大模型本来就只有一个,上下文窗口和文件记忆都是流动的 生搬人类的组织结构就只会学到中层病。要透过现象看本质。Agent 编排更像操作系统,而不是人类组织结构
中文
52
30
328
171.7K
盐粒 Yanli
盐粒 Yanli@beautyyuyanli·
昨天聊天聊到,不论大模型基础能力再怎么进化,都取代不了一个 web search tool/skill。这么看来 Google 的好日子还没到头。
中文
18
3
97
125K
加浓🧊美式
加浓🧊美式@_sumplogp·
今天让 cc opus 4.6 翻译 golang 到 rust 一堆特性丢了然后一堆 bug
中文
1
0
0
177
加浓🧊美式
加浓🧊美式@_sumplogp·
不看代码不行啊,cc 写的 bugs 太多了
中文
0
0
0
153
guo
guo@KuangrenLu·
@zzNeutrino 别人一出新东西,你又行了
中文
1
0
3
834
我吹呀吹
我吹呀吹@zzNeutrino·
我建议我国押宝LLM硬连接IC这条路,直接用产量极大的28nm成熟制程,TDP不重要,把整套迭代流程压缩到6个月,先出sota模型,再烧进芯片,Tick-Tock,此举能摆脱英伟达台积电ASML的限制,在未来10年独领AI鳌头。
中文
12
5
79
22.3K
加浓🧊美式
加浓🧊美式@_sumplogp·
4、两个成本, 时间成本与 token 成本. 无限的时间和无限的 tokens, 能大力出奇迹. 无论如何, 这都是一次巨大的进步, 尤其在开发一些“陌生但成熟”的系统的时候.
中文
0
0
1
59
加浓🧊美式
加浓🧊美式@_sumplogp·
3、常识, 大模型依然缺少常识, 比如 AI 科技新闻不先去 x.com 扒拉, 某些名人有自己博客的也不首先采纳参考, 这都是没有常识. 要想用好大模型需要基于信息世界抽取慢变量构建常识数据库, 这也是一种对 agent 提供服务.
中文
1
0
0
83
加浓🧊美式
加浓🧊美式@_sumplogp·
说几个跟业界不一样的结论, 春节全假期高强度“人机结对编程”实战,深入实践下来, 谨慎地说, 目前还远称不上范式转移, 但耗时分布发生了剧烈左移. 有了大模型最耗时的不是编码, 或者说有大模型之前最耗时也不在编码. 不过之前是在编码中思考和深化设计, 现在是将这个过程从编码中独立出来了.#sumscale
中文
3
0
1
251