Curtion

54 posts

Curtion

Curtion

@Suke_Meu

China Katılım Ağustos 2016
20 Takip Edilen3 Takipçiler
Curtion
Curtion@Suke_Meu·
@ZeroZ_JQ 我觉得比 sonnet4.6 要强,就是经常 429,如果解决了算力问题绝对是首推
中文
0
0
2
2.5K
关木
关木@ZeroZ_JQ·
glm 5.1 真的能打,体感和 sonnet4.6 满血差不多。 当初包了老套餐的 lite 后悔啊。
中文
57
1
123
53.9K
safari
safari@safaricheung·
谷歌之前在 Pixel 10 系列上使用 Quick Share 兼容了 AirDrop 双向互传文件,但当时很多人并没有搞清楚谷歌是如何破解苹果 AirDrop 协议的。 现在谷歌直接自己发了一篇技术 blog,解释了其中使用的哪些小技巧以及未来的发展计划。 整个技术栈使用 Rust 编写,从编译期就消除了内存破坏漏洞。同时,谷歌自己做了第三方渗透测试报告,确保这个漏洞不会被其他有心之人利用。 但目前 Quick Share 与 AirDrop 互传目前只支持 AirDrop 的十分钟内对所有人开放模式,也就是 iPhone 用户在 iOS 16.2 之后被苹果"降级"过的那个临时开放窗口。仅联系人模式没有打通。 Dan Boneh (斯坦福密码学教授,业界最有公信力的安全学者之一)的结论是:"鼓励 Google 和 Apple 在这方面更多合作"。 这算是把球踢回给苹果:现在如果苹果继续拒绝合作(比如不开放 Contacts Only 模式、或者用系统更新去阻断这个兼容层),那么"破坏互操作性"的责任就完全落在苹果头上了。Google 已经把自己塑造成那个"愿意合作、技术上也准备好了"的一方。 这应该是谷歌第一次公开解析这个功能,以及如何通过逆向苹果技术栈来实现第一方功能;这在很大程度上说明了 Google 并不将其视为一种对苹果功能的侵害,反而将其视为一种拆除围墙的行为。用词也很有趣,推荐一读。
safari tweet media
中文
16
47
511
198.4K
Curtion
Curtion@Suke_Meu·
@geekbb GLM高峰期用起来卡爆了(~25t/s), 我认为不是营销, 算力应该是真的不够
中文
2
0
4
3.2K
Geek
Geek@geekbb·
DeepSeek V4 好像要来了,快上 OpenRouter free 给兄弟们冲冲。 对了,我要是抢一次 Code Plan 算我输,搞笑,都什么年代了,还在这种营销。
中文
20
0
97
39.6K
Curtion
Curtion@Suke_Meu·
使用Tauri开发应用, 如果遇到了部分用户报告应用自启只有进程,没有托盘图标这种自己死活不能重现的奇怪问题时,应该优先尝试升级Tauri来解决, 而不是修改自己代码做无用功。 github.com/tauri-apps/tra…
中文
0
0
0
12
Curtion
Curtion@Suke_Meu·
@dotey 我怀疑是前两天 MiMo 出的 Token Plan 用量给的太少,被骂的太多了。39 一个月,用 MiMo-V2-Pro 只有 3000 万 Token,别说用 OpenClaw,正常 CC 写代码 2 小时也没了
中文
1
1
14
4.6K
宝玉
宝玉@dotey·
小米 MiMo 团队负责人罗福莉: 全球算力跟不上 Agent 时代的 Token 消耗,出路不是更便宜的 Token,而是更省 Token 的框架和更高效的模型共同进化。 一个技术细节: OpenClaw 的上下文管理做得非常糟糕。一个用户请求会触发多轮低价值的工具调用,每次都带着超过 10 万 Token 的长上下文窗口,实际请求次数是 Claude Code 自身框架的好几倍。换算成 API 价格,真实成本可能是订阅价的几十倍。 罗福莉提了两个观点: 第一,短期阵痛反而是好事。第三方框架被迫走 API 付费后,成本压力会倒逼它们改进上下文管理、提高 prompt 缓存命中率、减少无效 Token 消耗。 第二,呼吁其他大模型公司不要在没想清楚定价模型之前盲目打价格战。低价卖 Token 的同时对第三方框架大开门户,看着对用户友好,实际是个陷阱,Anthropic 刚从这个坑里爬出来。
Fuli Luo@_LuoFuli

Two days ago, Anthropic cut off third-party harnesses from using Claude subscriptions — not surprising. Three days ago, MiMo launched its Token Plan — a design I spent real time on, and what I believe is a serious attempt at getting compute allocation and agent harness development right. Putting these two things together, some thoughts: 1. Claude Code's subscription is a beautifully designed system for balanced compute allocation. My guess — it doesn't make money, possibly bleeds it, unless their API margins are 10-20x, which I doubt. I can't rigorously calculate the losses from third-party harnesses plugging in, but I've looked at OpenClaw's context management up close — it's bad. Within a single user query, it fires off rounds of low-value tool calls as separate API requests, each carrying a long context window (often >100K tokens) — wasteful even with cache hits, and in extreme cases driving up cache miss rates for other queries. The actual request count per query ends up several times higher than Claude Code's own framework. Translated to API pricing, the real cost is probably tens of times the subscription price. That's not a gap — that's a crater. 2. Third-party harnesses like OpenClaw/OpenCode can still call Claude via API — they just can't ride on subscriptions anymore. Short term, these agent users will feel the pain, costs jumping easily tens of times. But that pressure is exactly what pushes these harnesses to improve context management, maximize prompt cache hit rates to reuse processed context, cut wasteful token burn. Pain eventually converts to engineering discipline. 3. I'd urge LLM companies not to blindly race to the bottom on pricing before figuring out how to price a coding plan without hemorrhaging money. Selling tokens dirt cheap while leaving the door wide open to third-party harnesses looks nice to users, but it's a trap — the same trap Anthropic just walked out of. The deeper problem: if users burn their attention on low-quality agent harnesses, highly unstable and slow inference services, and models downgraded to cut costs, only to find they still can't get anything done — that's not a healthy cycle for user experience or retention. 4. On MiMo Token Plan — it supports third-party harnesses, billed by token quota, same logic as Claude's newly launched extra usage packages. Because what we're going for is long-term stable delivery of high-quality models and services — not getting you to impulse-pay and then abandon ship. The bigger picture: global compute capacity can't keep up with the token demand agents are creating. The real way forward isn't cheaper tokens — it's co-evolution. "More token-efficient agent harnesses" × "more powerful and efficient models." Anthropic's move, whether they intended it or not, is pushing the entire ecosystem — open source and closed source alike — in that direction. That's probably a good thing. The Agent era doesn't belong to whoever burns the most compute. It belongs to whoever uses it wisely.

中文
79
65
674
290.6K
文轩
文轩@hungxun254458·
@binghe 国内coding套餐目前性价比最高是glm的是吗
中文
3
0
0
1.9K
冰河
冰河@binghe·
智谱当时 GLM 的 lite 包月 40 来块。。 又便宜又好用。。 后来,我发现大家都抢不到这个订阅产品,每天和我抱怨。。 马上起来把套餐升级成包年的。。 用量说小,但很够用,做点小任务,采集信息,做些简单的工作流,非常好用。而且现在GLM-5 已经超出我的预期了。
冰河 tweet media
中文
33
1
33
28.1K
geniusvczh
geniusvczh@geniusvczh·
@Suke_Meu 我还能看到,难道只剩下按月了?
geniusvczh tweet media
中文
1
0
1
1.1K
Curtion
Curtion@Suke_Meu·
@himself65 我用LM Studio部署Qwen3.5 35B A3B也经常重复,但是相同的GGUF,相同的参数使用llama.cpp部署就正常
中文
0
0
0
1.3K
Bread🍞
Bread🍞@himself65·
没错,的确是谷歌发布的
Bread🍞 tweet media
中文
9
0
97
37.7K
Curtion
Curtion@Suke_Meu·
@app_sail 我弄的是个体户,用网店地址注册,麻烦的在于每个季度要报税,每年要公示
中文
0
0
0
989
Asa
Asa@app_sail·
咸鱼真牛逼,这个方向搬运怎么样
Asa tweet mediaAsa tweet media
中文
53
57
782
189.7K
Curtion
Curtion@Suke_Meu·
@willTheLeek GitHub Copilot 已经挺好用了,skills memory subagent mcp 该有的都有
中文
0
0
1
2K
willBuyingStocks
willBuyingStocks@willTheLeek·
如果把Cursor看作: 1. 每月(近似)无限量Composer 2 Fast+Kimi K2.5 2. 不限制使用cursor提供的优秀的编辑器功能(github copilot chat过了一年了还是一样的抽象🙂‍↔️)、plan模式、优雅的subagent 3. 比较方便的cloud agent 4. 赠送可用大约一周的o家a家模型的额度 看起来是不是好一些
中文
11
5
86
30.7K
Curtion
Curtion@Suke_Meu·
@localhost_4173 可以实现更新时自动安装、自动重新打开吗? 现在需要点击下一步和完成, 还有就是选择工作目录后无法取消
中文
0
0
0
1.1K
低空飞行
低空飞行@localhost_4173·
ChatWise 闲置时内存使用对比 v0 (tauri) vs v26 (electron)
低空飞行 tweet media
中文
12
0
50
13.5K
Curtion
Curtion@Suke_Meu·
@ryan_80200 如果喇嘛也算和尚的话, 成都医院还是很多的
中文
1
0
1
147
lucas
lucas@ryan_80200·
你们有没有发现一件事情,就是在医院里面,很少看到和尚和尼姑在看病!难道他们不会生病?还是说寺庙和庵里面,有配备了专职医生?
中文
82
0
73
41.6K
Curtion
Curtion@Suke_Meu·
@geniusvczh 我一直担心如果一次给的任务目标过大,会增加审查难度也会增加破坏性修改的概率,所以每次都是让它完成一个小任务🫩
中文
1
0
0
333
geniusvczh
geniusvczh@geniusvczh·
@Suke_Meu 算你四个小时,240分钟300个request,你这样不行。你需要一次让它尽可能多的访问代码,解决复杂的问题,让agent能够有自己的办法看他到底有没有把事做好,人尽量不在中途介入🤪
中文
2
0
7
3K
Curtion
Curtion@Suke_Meu·
@xds2000 方舟 Coding plan 的 kimi2.5 速度只有 25t/s
日本語
0
0
0
1.3K
Tommy Xiao
Tommy Xiao@xds2000·
国内龙虾党最佳配置: 火山方舟 Coding Plan Lite → 飞书渠道 → Kimi-K2.5 模型。 这是目前配置最简单、体验最好、成本最低的入门组合。
中文
41
127
804
125.2K
低空飞行
低空飞行@localhost_4173·
有生之年三件事: ChatWise 用 Electron 重写 GTA 6 发布 DeepSeek v4 发布
低空飞行 tweet media
中文
16
2
136
28.3K
Curtion
Curtion@Suke_Meu·
@landiantech 肯定不够,我的苹果手机12G都经常杀后台
中文
0
0
0
1K
蓝点网
蓝点网@landiantech·
MacBook Neo 因芯片封装工艺导致内存被锁死,所以苹果只能提供 8GB 内存没法加钱上更高的内存。锁死原因主要是 A18 Pro 是给手机使用的芯片,所以核心和内存颗粒是封装在一起的没法单独提供更高的内存,而 8GB 内存也着实太小了,只拿来看网页和轻度使用估计还行:ourl.co/112043?x
蓝点网 tweet media
中文
24
1
106
62.5K
Curtion
Curtion@Suke_Meu·
@vikingmute 我在 windows 上就没有成功跑起来过,吐了,这玩意儿是不是没做 windows 支持
中文
0
0
0
721
Viking
Viking@vikingmute·
Agent Browser 推出了 native 格式: agent-browser --native 不像之前需要包一层:通过 Node.js 运行 Playwright 库 → Playwright 再转成 CDP 协议 现在直接从 CLI 用 Rust 原生实现连接 CDP 协议 → 直达 Chrome 这个看起来很赞啊: 运行时完全没有 Node.js 进程,内存占用更低、体积更小,零运行时依赖,只需要二进制文件 ,浏览器。 现在 agent-browser 也是我非常喜欢的项目了。
Viking tweet media
Chris Tate@ctatedev

New experimental flag: agent-browser --native Single Rust binary. Direct CDP. → No abstraction ceiling → Self-contained daemon → No Node.js process at runtime → Less memory, smaller footprint → Zero runtime dependencies, just the binary and a browser

中文
13
62
435
59.2K