Hek

24 posts

Hek

Hek

@HekLive

Katılım Şubat 2026
86 Takip Edilen6 Takipçiler
Hek
Hek@HekLive·
@dotey 我看图上写的 GPT-4o GPT-4.1 是 0x,这是完全不扣次数?随意用的意思么
中文
3
0
1
6.6K
宝玉
宝玉@dotey·
GitHub Copilot 里面 Opus 4.7 居然是 7.5x,Opus 4.6 是 3x
宝玉 tweet media
中文
72
12
245
134K
Hek
Hek@HekLive·
@luoleiorg 锁定不了吧?只能一个月一个月的续费,哪天阿里想改价格了,直接不给续费,推出新的高价套餐就行了。
中文
0
0
1
1.1K
luolei
luolei@luoleiorg·
阿里云 Coding Plan Lite 今天18点彻底停售,连老用户续费通道都关了。不少朋友在纠结要不要升 Pro,我的建议是升,找 2–3 人拼车就行,每人每天 1000+ 次请求,正常用根本打不满。 我自己选国产 Coding Plan 的逻辑很简单👇 这种不按 Token 计费的订阅模式,厂商大概率是亏钱在做的。谁能一直亏得起,看的就是算力储备。 🔋 国内有这个底气的,说实话就字节和阿里两家。公开数据看,这两家是国内芯片采购规模和算力基础设施投入最大的公司,而且从 2023 到 2025 年一路在加码,不是突然冲一把。 🧩 算力够深还带来一个实际好处:字节和阿里的 Coding Plan 不只有自家模型,GLM-5、Kimi K2.5、MiniMax 这些主流模型也都接进来了,一个订阅覆盖大部分选择,日常用起来省心。反观智谱、Kimi 它们自家的 Coding Plan,模型版本可能更新更快,但受限于算力规模,限速、排队、高峰体验下降的反馈也不少,而且只能用自家模型,选择面窄。 🛠️ 另外这两家在开发者工具上都有自己的产品线——字节有 Trae,阿里有通义灵码。Coding Plan 对它们来说不是顺手搞搞,是有产品投入在背后的。 过去一个多月各家都在砍低价套餐、收紧限购,趋势很明确:补贴窗口在关 ⏳ 如果有条件,趁现在锁一个字节或阿里的套餐,当前价位不会亏。
luolei tweet medialuolei tweet media
中文
33
8
69
55.8K
Hek
Hek@HekLive·
@0xkakarot888 这个都要靠抢啊,反过来证明官方的算力(显卡)是真的不足了,抢到的兄弟们,用着也不会很流畅的。
中文
0
0
0
973
0x卡卡撸特
0x卡卡撸特@0xkakarot888·
GLM coding plan 终于抢到了,自己是死活抢不了,然后没办法,某鱼找了滴滴代抢。。。 先试 3 个月的,看看好不好用,也感谢评论区大神给我推荐的 opencode go,才10美金很便宜,我也买了,两个一起测,现在应该 token 无忧了。 感谢老师们,如果有好的使用建议,也方便在评论区分享,谢谢!
0x卡卡撸特 tweet media
0x卡卡撸特@0xkakarot888

你们到底是怎么抢到 GLM 的 Coding plan 的? 买个模型还要靠秒杀的?真是活久见,到了 10 点,页面直接太多人访问,打不开了,然后 10 点 01 分,可以打开了,被秒光了。。。 我要不是 Claude 烧不起,鬼才来抢这个。。。55555

中文
42
4
37
34.4K
Hek
Hek@HekLive·
@legacyvps Minimax M2.7 highspeed 用来跑OpenClaw确实是非常不错。
中文
1
0
1
679
小墨同学
小墨同学@legacyvps·
最近刚刚好把国产模型都玩了一遍,包含GLM、MiniMax、Kimi。国外的Gemini、Claude、Codex我也在高强度使用。 国产三个会员我都开了套餐使用了一下,我就说一下我的使用感受。 使用场景: 1、文学创作 Claude > Gemini = Codex > GLM > Kimi > MiniMax Claude还是当之无愧文学创作方面是用着最舒服的,不管是流程整理,还是文章输出都是最贴近真人的感觉。 2、代码编写 Codex > Claude > Gemini > GLM > Kimi > MiniMax 在代码方面我和大部分人可能不一样,我觉得codex会更舒服,加上官方单独的review额度,精准的查找问题确认BUG。 Claude不敢大量使用,不是说不够好是token不够烧 3、日常任务理解 Claude > Codex = Gemini > GLM > Kimi > MiniMax 在日常使用当中,得益于Claude仔细的任务编排,会把任务做很好的规划,但是在提示词优化或者图片生成方面Gemini给我的最舒服 Codex在脚本编写归纳,也是非常的舒服,所以我会把他放在和Gemini一样的程度。 国产里面GLM是最强的,但是缺货和不稳定时它最大的问题,应该是算力不足。 Kimi本来领先但是最近没有什么新模型的消息所以落后了一点。 Minimax在能力上虽然不行,但是有两个非常明显的特点: 1、量大管饱 2、算力充足反应快 我的小龙虾主力,因为我不需要做复杂的任务,只需要简单的任务编排,量大管饱和反应速度就是我最看重的体验。 本观点只代表个人,如果有不同的观点欢迎评论区讨论。
小墨同学 tweet media小墨同学 tweet media小墨同学 tweet media
中文
50
57
326
98.1K
Hek
Hek@HekLive·
@legacyvps 除非要经常切换着用不同平台,才需要CCswitch, 固定用 MiniMax Coding Plan的话,export 环境变量就可以 export ANTHROPIC_BASE_URL="api.minimaxi.com/anthropic" ; export ANTHROPIC_AUTH_TOKEN="sk-c.........." ; export ANTHROPIC_MODEL=MiniMax-M2.7 ; claude --dangerously-skip-permissions'
中文
2
0
1
292
Hek
Hek@HekLive·
@francis_charlie @linyiLYi A3B的实际运行速度,比4B快。我在MacMini M4 Pro实测。我这边实测的是 32tps vs 52tps, 当然前提你内存要足够。
中文
1
0
0
98
林亦LYi
林亦LYi@linyiLYi·
找到了一个谷歌 gemma4 吊打阿里 qwen3.6-plus 的场景(亲测,但纯娱乐。模型能力要看很多场景,不过这方面的确吊打😂)
林亦LYi tweet media
中文
64
32
498
102.3K
Hek
Hek@HekLive·
@libukai 要啥AI啊,只要甲方 钱给的足够多,完全可以安排个实习生,天天手动去抓取的。
中文
0
0
0
1.2K
李不凯正在研究
李不凯正在研究@libukai·
收到甲方爸爸的新需求,其核心是抓取指定账号在以下平台上发布的内容的各项数据: 1. 小红书 2. 视频号 3. 抖音 4. 公众号 5. B 站 6. 微博 反正我搜了一圈,尝试了各种工具和各种服务,没有一个是能保证实现 365 天稳定抓取的。 敢问各位天天用 AI 做爬虫的朋友,请指点一下到底有没有啥工具能全部搞定的?我是目标用户,付费意愿强烈啊!!!
中文
56
80
566
128.1K
Hek
Hek@HekLive·
OpenCode + Qwen 3.6 Plus Free , 能用,生成的效果也不错。就是巨慢!! 生成一个单页面的 .html Landing页,耗时34分钟,其中2张图片404,让它修改好,又 耗时20分钟。
中文
0
0
0
60
Hek
Hek@HekLive·
@geekbb OpenCode + Qwen 3.6 Plus Free , 能用,生成的效果也不错。就是巨慢!! 生成一个单页面的 .html Landing页,耗时34分钟,其中2张图片404,让它修改好,又 耗时20分钟。
中文
0
0
0
101
Geek
Geek@geekbb·
OpenCode 上的免费模型,Qwen3.6 Plus Free 也上了。
Geek tweet media
中文
18
21
308
51.7K
Hek
Hek@HekLive·
MacMini M4 Pro 64GB内存 , oMLX github.com/jundot/omlx/ Qwen3.5-35B-A3B-Uncensored-HauhauCS-Aggressive-MLX-mxfp4,实测 52 Tokens/秒 Qwen3.5-9B-Uncensored-HauhauCS-Aggressive-MLX-mxfp4, 实测 32 Tokens/秒 Qwen3.5-27B-Claude-4.6-Opus-Distilled-MLX-4bit, 实测 12 Tokens/秒
English
0
0
0
194
Hek
Hek@HekLive·
MacMini M4 Pro ,LMStudio的实测速度。 qwen 3.5 - 0.8B 超小版本,输出速度 80 Tokens/秒。 qwen 3.5 - 2B 版本,输出速度 67 Tokens/秒。 qwen 3.5 - 4B 版本,输出速度 32 Tokens/秒。 qwen 3.5 - 9B 版本,输出速度 25 Tokens/秒。 Qwen 3.5 - 27B,大概 8 tokens/秒 速度。
Hek tweet media
中文
2
0
0
30
Hek
Hek@HekLive·
@swiftshoes @oran_ge Slack可以直接删,为什么 Discord 不会?迟早的事啊。
中文
1
0
1
45
...
...@swiftshoes·
@oran_ge 我们用discord了,加入bro大军
中文
3
0
7
5.2K
Orange AI
Orange AI@oran_ge·
Slack 这家公司太离谱了 昨天宣发 ColaOS,是我们公司最忙的一天 结果它直接就把我们的工作区删除了 一个做 IM 的,都没有任何的界面提示,也不让人备份数据,就直接给删掉了 而它就在几天前,刚刚还扣了我们公司一笔订阅费 我们员工都懵了,不知道的还以为老板跑路了呢… 后来知道是所有的中国大陆和香港澳门的企业都被删除了。 Slack 客服辩解说,我给你们这些企业都发过邮件啊… 大哥,这么重要的事情,你一边收着钱,就发个很容易进垃圾箱的批量邮件… 这种服务水平的企业以后谁还能信任呢?
中文
93
21
410
131.8K
Hek
Hek@HekLive·
@jakevin7 @dotey 用了 opencli 一个晚上,被封了一个小红书号 封了一个twitter号 😂😂😂😂
中文
0
0
0
113
卡比卡比
卡比卡比@jakevin7·
OpenCLI 1.4.0 要发版了🎉!太多东西了! 后面 1.5.0 的目标则是全面提升易用性。@dotey 感谢宝玉老师的建议。 包括反风控全面提升,安全性全面提升 等一系列重大升级! 也有很多易用强大功能,譬如支持了插件化,通用 web read 支持任意 URL 转 Markdown 等 github.com/jackwener/open… 反风控模式 新增完整的 anti-detection 体系核心能力包括:屏蔽 各种标记、伪造 API 返回值、注入真实的信息 、清理 CDP 特征应对高级 fingerprinting 检测。增加人类行为模拟延迟系统。 安全加固 Chrome Extension 安全性全面提升:封堵 javascript URL 注入;防止跨窗口操作用户个人浏览器;防止全量 cookie 泄露。修复了 command injection 风险,新增 stealth anti-detection 模块应对高级 fingerprinting。 Plugin 系统 Plugin 体系大幅增强:支持插件在执行前后注入逻辑;新增 plugin update 命令和安装后 hot reload;增加插件结构校验,安装和更新时自动验证合法性; 新平台适配 新增 10+ 平台支持:Pixiv 插画搜索与详情、TikTok 视频搜索、雪球/蛋卷基金账户查询、京东商品详情、LinkedIn 时间线、V2EX 节点/用户/回复、豆包(浏览器+桌面端)、Hacker News 全站(new/best/ask/show/jobs/search/user)、词典查询(搜索/同义词/例句)。 小红书新增图文发布自动化,微信公众号文章下载转 Markdown,通用 web read 命令支持任意 URL 转 Markdown。 Pipeline 引擎 模板引擎支持链式 || 表达式求值;sort step 实现 natural sort,字符串数字自动按数值排序,YAML 作者无需手动配置;fetch step 新增 HTTP 状态码检查;新增 record 命令支持实时 API 抓包录制。
中文
34
50
372
70K
Hek
Hek@HekLive·
@dashen_wang GLM-5-Turbo家的 99元 1亿Tokens,我用OpenClaw 一天半就跑完了。
中文
1
0
0
1.4K
AI最严厉的父亲
AI最严厉的父亲@dashen_wang·
腾讯云刚卖18天的Coding Plan,直接停售换成Token Plan了 新出的Token Plan分四个套餐,39块3500万token,99块1亿,299块3.2亿,599块6.5亿 有人算过账,99块的基础套餐,每次请求超2.2k token就比原来的Coding Plan坑 可程序员用的时候,每次请求都是几十上百k token,等于变相涨价 官方说升级是为了满足“编码”“龙虾”等场景需求,更灵活有性价比 但用户不买账——有人一天要用一亿token,现在得花599块买max套餐 还有人说,跑两个任务就把3500万token用完了,这哪是升级,是抢钱 对比土区ChatGPT Plus才80块,能接龙虾还能用GPT4.5,比这划算多了 评论里全是吐槽,腾讯玩不起,赚快钱的基因刻在骨子里 有人甚至说,现在只能优化提示词让AI少说话,或者回归古法写代码 毕竟几千万token不够用,谁扛得住这种强行替代的“升级”
AI最严厉的父亲 tweet media
中文
66
9
100
95.5K
Hek
Hek@HekLive·
@Keji715 @AI_Jasonyu 放弃 Sonnet 放弃 Opus吧,皈依 GLM-Minimax-Kimi-Qwen。 4家全部购买顶配Coding Plan,轮流用起来。一家不行就换一家,或者同一个项目让4家一起同时跑。哪个跑成功了就上线哪一个的成果。
中文
1
0
0
484
柯基是只猫
柯基是只猫@Keji715·
昨天吐槽了下同事因为claude code封禁太严格就自己放弃了,没想到这么多朋友在下面提问如何弄海外电话卡、如何弄干净IP等等。 我来推荐下我折腾这件事儿的时候学习最多的三个博主,推荐大家也关注: 1. 鱼总聊AI @AI_Jasonyu 鱼总教程都贼详细,涵盖电话卡、银行账户、ip等等,希望我可以早日用上他的X创作者收益教程hh 2. 雪踏乌云 @Pluvio9yte 我关于干净IP的探索基本都学习自乌云哥 3. 劳伦斯@LawrenceW_Zen 有详细的关于如何使用claude code的教程,包括原版和国内版本,照着学就行了。 claude code封号、出海账号之类的东西,受到政策影响很大,经常关注他们可以得到实时的新信息~
柯基是只猫@Keji715

今天有个同事问我怎么买claude code,我详细给他介绍了怎么弄海外电话卡,怎么弄干净的ip,怎么弄海外支付。 然后他说,这东西也太麻烦了,还是先用国内的吧。 可能我们最开始的意愿就决定了我们可以走多久。

中文
32
152
705
128.4K
Hek
Hek@HekLive·
@gefei55 3.5刀 买个健身计划表 PDF文件(电子版),显示有9个销量。
Hek tweet media
中文
0
0
0
363
哥飞
哥飞@gefei55·
有人花了19.9,买了一张纸
哥飞 tweet media哥飞 tweet media
中文
91
15
562
397.5K
Hek
Hek@HekLive·
@gefei55 OpenBookClaw
English
0
0
0
196
哥飞
哥飞@gefei55·
如果你的产品想要被 OpenAI 收购,产品名称里可以带上 Open 。 如果你的产品想要被 Meta 收购,产品名称里可以带上 M 或者 Book。 如果你的产品想要收获 Claude 的律师函,产品名称里可以带 Clawd 或者类似发音的词。
中文
33
20
328
38.6K
Hek
Hek@HekLive·
@fankaishuoai 省事点,直接弄台海外的VPS吧。折腾网络问题是浪费生命。
中文
0
0
0
21
Hek
Hek@HekLive·
@karminski3 收到,无脑上 35B-A3B
中文
0
0
0
167
karminski-牙医
karminski-牙医@karminski3·
给大家带来归一化的Qwen3.5系列模型分数汇总, 惊喜的发现是 27B dense 这个模型的确不以言, 基本达到了期间模型 Qwen3.5-397B-A17B 94% 的性能. 尤其是视觉Agent能力 (比如操作浏览器/手机等图形界面) 是这些里面最强的. 以及长上下文能力, 指令遵循也很不错. 通用 Agent 能力 (比如工具调用, 就是 OpenClaw 的绝大多数应用场景) 看上去 35B-A3B 和 27B 是一样的, 也有好多朋友问我, 我个人的主观感受是 27B 更强一丢丢, 但是带来的提升完全不值得上个 27B 的 dense 模型 (仅通用Agent能力来说哈), 还是 35B-A3B 这种激活量小的 MoE 更具性价比. 另外9B无论什么时候都是优于4B的, 即使9B量化到5bit, 跟4B的8bit差不多大小了, 我也还是推荐使用9B. 不过122B-A10B 就没太大的性价比了, 从分数上来看跟 27B 没有太大差距. 只不过知识量会大一些. 总结的话, OpenClaw 无脑上 35B-A3B, 传统任务比如文件处理, 写代码, 文本总结等能用27B尽量用27B, 9B 是最后的选择, 宁可 9B-5bit 量化也别 4B. #qwen35 #openclaw
karminski-牙医 tweet mediakarminski-牙医 tweet mediakarminski-牙医 tweet media
中文
26
26
267
27.7K
Hek
Hek@HekLive·
@fankaishuoai 本地模型用 新出的 Qwen3.5 会不会更好。
中文
0
0
0
692
范凯说 AI | Kai on AI
范凯说 AI | Kai on AI@fankaishuoai·
升级到了小龙虾 3.7,主控模型 GPT 5.4,Thinking 设置 Medium,模型组合如下: 1. 主控模型: GPT 5.4; 2. 写作模型:Claude 4.6 Opus; 3. 编程模型:GPT 5.3 Codex; 4. 兜底模型:GLM 4.7,兜底和低价值任务。 4. 向量模型:BGE-M3, 本地向量化,记忆搜索。 5. 本地模型:Qwen3-Coder-Next。
中文
39
81
589
92.1K