Wousp

1K posts

Wousp banner
Wousp

Wousp

@qi9098

记录 AI 时代普通人能用上的工具、价格和access route Codex / Claude Code / DeepSeek / 闲鱼暗号

Katılım Kasım 2024
118 Takip Edilen675 Takipçiler
Sabitlenmiş Tweet
Wousp
Wousp@qi9098·
新版的Codex Desktop APP已经原生支持通过 SSH 连接到远程开发环境了 特别适合你的工作依赖于不在你的笔记本电脑上的环境的情况。 以防你不知道,以下是开启方法: 把这一串 [features] remote_connections = true 放到这个里面 ~/.codex/config.toml 然后在Codex APP里面点击设置,点击连接就有这个功能了
Wousp tweet mediaWousp tweet media
中文
38
100
776
105.4K
ClaudeDevs
ClaudeDevs@ClaudeDevs·
Happy Friday! We've reset everyone's 5-hour and weekly rate limits.
English
665
391
8K
349.7K
Wousp
Wousp@qi9098·
@SuisPasDaVinci 伦敦一年也到70-80了 美国45怎么能到这么低的什么城市可以这样
中文
0
0
0
265
达芬七
达芬七@SuisPasDaVinci·
各国留学总成本,从贵到便宜: 1. 美国 一年约45万-80万人民币 学费、住宿、保险全都贵 2. 英国 一年约35万-60万人民币 硕士时间短,但一年烧钱很猛 3. 澳大利亚 一年约35万-60万人民币 学费高,生活费也不低 4. 新加坡 一年约30万-55万人民币 亚洲里最贵那档,房租压力大 5. 加拿大 一年约25万-40万人民币 不便宜,但在主流英语国家里算温和 6. 新西兰 一年约25万-40万人民币 成本接近加拿大,但选择少一些 7. 德国 / 法国 一年约12万-25万人民币 学费低,主要花在生活和语言适应上 8. 马来西亚 一年约8万-18万人民币 东南亚性价比代表 9. 泰国 一年约8万-16万人民币 生活成本低,适合低预算过渡 10. 菲律宾 / 越南 一年约6万-15万人民币 便宜是真便宜,但学校和认可度要挑
达芬七@SuisPasDaVinci

多伦多大学硕士留学两年总开销约55万人民币,你们觉得值嘛? 学费:35000-48000加元/年,折合人民币约18.6-25.4万/年。如果是商科或金融类,费用会更高。 住宿:校外单间月租1200-1800加元,一年约1.5万加元,折合人民币8万。校内宿舍更贵,一年约1.8万加元。 生活费:吃饭、交通、保险等日常开销,月均约800加元,一年约1万加元,折合人民币5.3万。 其他费用:往返机票、签证、教材等,预留约1.7万人民币。

中文
8
3
26
12.8K
Sudarshan Shah
Sudarshan Shah@sudarshandev119·
@qi9098 @hiarun02 I do use Claude Code(Sonnet 4.6)and Codex very much, but never ran out of limit. And also, as I said, trust issues with China.
English
1
0
1
82
Arun
Arun@hiarun02·
If DeepSeek V4 can do the same coding task for $5 why are people still paying $100 for Claude Code?
English
323
25
1.1K
169.9K
Wousp
Wousp@qi9098·
@kfk_ai 用 Codex Desktop computer use 不就行了配合Chrome Extension也行。为啥一定要用那个 CLI?那个有封号风险啊
中文
1
0
1
135
Kafka
Kafka@kfk_ai·
每天 30 分钟刷小红书,留下来的"洞察"几乎为零。 这期视频我试了一个新方案:把 Codex Desktop 和开源的 xiaohongshu-cli 拼起来,让 AI 替我做选题调研、批量阅读、智能回评论。 让 Agent 替你搜笔记、读评论、回 @、聚合通知。 最爽的一步——安装 xhs 这件事都不用自己干,让 Codex 自己 curl 自己 install。 00:00 开场 00:21 工具介绍:Codex + 小红书 CLI 01:10 安装 Codex 桌面版 02:05 让 Codex 安装小红书 CLI 03:10 说明登录方式:不用密码和 API Key 03:56 运行 xhs login 登录 04:26 登录失败,改用二维码 04:55 手机扫码确认登录 05:23 接入 Skill.md 06:49 验证小红书账号信息 07:36 搜索“AI 编程工具” 08:12 Codex 自动读取笔记和评论 09:36 生成 5 个高频痛点 09:56 总结完整流程
中文
23
25
131
11.2K
Wousp
Wousp@qi9098·
@sudarshandev119 @hiarun02 Then Deepseek absolutely satisfy your needs. Your workload Isn't heavy. And within 20 bucks, you probably don't frequently use claude code like agent. If you just use chatbots, you don't necessarily need Claude and GPT.
English
1
0
0
10
Sudarshan Shah
Sudarshan Shah@sudarshandev119·
@hiarun02 Trust issues with China. Also, I find Claude Sonnet 4.6 and GPT 5.5 superior and enough for my all needs, within $20 plan.
English
1
0
4
565
Nous Research
Nous Research@NousResearch·
Deepseek V4 Flash is now free via Nous Portal for a limited time thanks to @novita_labs!
English
92
108
1.3K
467.3K
Wousp
Wousp@qi9098·
一个用 Codex 新版App的 tips: 你现在可以使用 Command 1~6 来分别跳转到排在最前面的1~6个 对话session 了
中文
0
0
0
66
Wousp
Wousp@qi9098·
Codex Mobile !!!所有人Attention!!! 卧槽,这次游戏真终结了,刚刚看到 CodeX 推送了一个更新按钮,本来以为是个小更新,结果打开一看,可以跟手机联动了!!! 现在你可以随时随地在手机上就可以操控世界上目前最先进的 Agent,及其配套的官方插件,如Computer Use、Chrome Extension等... Let's build Anything at Anytime!!!
Wousp tweet media
OpenAI@OpenAI

You've been asking for this one... Now in preview: Codex in the ChatGPT mobile app. Start new work, review outputs, steer execution, and approve next steps, all from the ChatGPT mobile app. Codex will keep running on your laptop, Mac mini, or devbox.

中文
0
0
1
173
Wousp
Wousp@qi9098·
@xiaohu 这个 +50% 对重度 Claude Code 用户肯定有用,但我感觉它反而提醒大家要把 quota 当成价格表看。 同样是订阅,5 小时窗口、weekly limit、API credit、Codex 的 GPT Pro token 成本,最后都得折成一条账。 我这里算过 Codex 这边的参考: x.com/qi9098/status/…
Wousp@qi9098

我算出了 GPT Pro 会员在 Codex 里面的实际 Token 单价竟然和中转站的价格相差甚微!我使用的是@cccchuizid 的PackyAPI,具体情况如下: 前两天从 GPT 的20倍 Pro 会员降到了5倍的档位。 然后上一周过完了之后,Token 差不多都用完了,就还剩6%。我让 Codex 帮我统计了一下过去一周的 Token 用量,并且估算出了,如果用到100%的话,分别 input、input hit cache、output 在 fast 和非 fast 以及在有两倍 promotion 和没有两倍 promotion 的情况下,实际上对应的 token 单价是多少 结果如下: Packy codex-sale x0.4: 比你的 10x promo 非 Fast 贵约 1.80 倍 比你的 10x promo Fast 便宜约 28% 比你的 5x 非 Fast 便宜约 10% 比你的 5x Fast 便宜约 64% Packy codex x0.5: 比你的 10x promo 非 Fast 贵约 2.26 倍 比你的 10x promo Fast 便宜约 10% 比你的 5x 非 Fast 贵约 13% 比你的 5x Fast 便宜约 55% 图中是详细的各个档位下的实际单价 可以推断的一点是10倍的 Promotion 非 fast 情况下的单价其实非常之低。然后这个单价理论上应该是跟20倍档位的 Pro 的单价应该是一样的。因为20倍的 Pro 的档位,默认包含了两倍的 Promotion。 那么由此可以推断出另外一个结论: 如果你的用量还没到5倍 Pro 的水平,按量用中转站其实可能更划算,尤其是 codex-sale 这种价格。 但如果你的用量已经超过了5倍,甚至接近10倍,而且主要跑 Codex / GPT-5.5 这种高价模型,那么这种情况下直接买官方 Pro 反而更划算。中转站当然也有稳定性和账号风险的问题,这个就看个人取舍。

中文
0
0
0
125
小互
小互@xiaohu·
Claude Code 每周限制将增加 50%,从现在持续至 7 月 13 日 同时可以和上周的5小时限额翻倍福利叠加 立即生效
小互 tweet media
中文
16
0
36
17.1K
Wousp
Wousp@qi9098·
@0xLogicrw 这个拆分方向基本就是在把“订阅爽用”和“程序化消耗”分开定价。 对个人用户来说,claude -p 这种 workaround 只能临时绕一下,长期还是要把 subscription quota、API credit、token 单价一起算。 Codex / GPT Pro 这边我刚算过一版: x.com/qi9098/status/…
Wousp@qi9098

我算出了 GPT Pro 会员在 Codex 里面的实际 Token 单价竟然和中转站的价格相差甚微!我使用的是@cccchuizid 的PackyAPI,具体情况如下: 前两天从 GPT 的20倍 Pro 会员降到了5倍的档位。 然后上一周过完了之后,Token 差不多都用完了,就还剩6%。我让 Codex 帮我统计了一下过去一周的 Token 用量,并且估算出了,如果用到100%的话,分别 input、input hit cache、output 在 fast 和非 fast 以及在有两倍 promotion 和没有两倍 promotion 的情况下,实际上对应的 token 单价是多少 结果如下: Packy codex-sale x0.4: 比你的 10x promo 非 Fast 贵约 1.80 倍 比你的 10x promo Fast 便宜约 28% 比你的 5x 非 Fast 便宜约 10% 比你的 5x Fast 便宜约 64% Packy codex x0.5: 比你的 10x promo 非 Fast 贵约 2.26 倍 比你的 10x promo Fast 便宜约 10% 比你的 5x 非 Fast 贵约 13% 比你的 5x Fast 便宜约 55% 图中是详细的各个档位下的实际单价 可以推断的一点是10倍的 Promotion 非 fast 情况下的单价其实非常之低。然后这个单价理论上应该是跟20倍档位的 Pro 的单价应该是一样的。因为20倍的 Pro 的档位,默认包含了两倍的 Promotion。 那么由此可以推断出另外一个结论: 如果你的用量还没到5倍 Pro 的水平,按量用中转站其实可能更划算,尤其是 codex-sale 这种价格。 但如果你的用量已经超过了5倍,甚至接近10倍,而且主要跑 Codex / GPT-5.5 这种高价模型,那么这种情况下直接买官方 Pro 反而更划算。中转站当然也有稳定性和账号风险的问题,这个就看个人取舍。

中文
0
0
0
2K
思维怪怪
思维怪怪@0xLogicrw·
Anthropic 今日出台新规,把脚本自动跑任务踢出了订阅套餐的常规池,强制套上每月 20 到 200 美元不等的额度上限。但同时规定,人在终端里「交互式打字聊天」依然不限量。 新规刚发,开发者社区就拿出了反制手段。一个名为 claude-p 的开源项目直接把脚本调用伪装成了真人打字,成功绕过了这道计费墙。 它的做法是先在后台静默拉起一个虚拟终端(PTY),打开正规的 Claude Code 界面;接着用代码模仿人类,在键盘上敲出提示词并按下回车。等 Claude 吐完答案,它再把结果抓取出来传给外部程序。 经过这层伪装,在 Anthropic 的服务器看来,所有高频的机器请求都变成了一个真人在屏幕前打字聊天。第三方工具因此能继续走原来的「无限畅吃」账单,不受 20 到 200 美元的限制。 作者的神吐槽:「想靠客户端管住别人怎么用你的产品,根本就是白费力气。」
fucory@FUCORY

Introducing npx claude-p A dropin replacement for claude -p

中文
16
15
162
51.9K
Wousp
Wousp@qi9098·
@huangjinbo 是,客户端都开始支持中转站以后,问题就不只是“用不用 Opencode”了。 更像是在选路线:官方订阅的 quota、API 直连、中转站单价、稳定性,各有成本。Codex 这边我前两天刚把 GPT Pro 实际 token 单价算了一遍: x.com/qi9098/status/…
Wousp@qi9098

我算出了 GPT Pro 会员在 Codex 里面的实际 Token 单价竟然和中转站的价格相差甚微!我使用的是@cccchuizid 的PackyAPI,具体情况如下: 前两天从 GPT 的20倍 Pro 会员降到了5倍的档位。 然后上一周过完了之后,Token 差不多都用完了,就还剩6%。我让 Codex 帮我统计了一下过去一周的 Token 用量,并且估算出了,如果用到100%的话,分别 input、input hit cache、output 在 fast 和非 fast 以及在有两倍 promotion 和没有两倍 promotion 的情况下,实际上对应的 token 单价是多少 结果如下: Packy codex-sale x0.4: 比你的 10x promo 非 Fast 贵约 1.80 倍 比你的 10x promo Fast 便宜约 28% 比你的 5x 非 Fast 便宜约 10% 比你的 5x Fast 便宜约 64% Packy codex x0.5: 比你的 10x promo 非 Fast 贵约 2.26 倍 比你的 10x promo Fast 便宜约 10% 比你的 5x 非 Fast 贵约 13% 比你的 5x Fast 便宜约 55% 图中是详细的各个档位下的实际单价 可以推断的一点是10倍的 Promotion 非 fast 情况下的单价其实非常之低。然后这个单价理论上应该是跟20倍档位的 Pro 的单价应该是一样的。因为20倍的 Pro 的档位,默认包含了两倍的 Promotion。 那么由此可以推断出另外一个结论: 如果你的用量还没到5倍 Pro 的水平,按量用中转站其实可能更划算,尤其是 codex-sale 这种价格。 但如果你的用量已经超过了5倍,甚至接近10倍,而且主要跑 Codex / GPT-5.5 这种高价模型,那么这种情况下直接买官方 Pro 反而更划算。中转站当然也有稳定性和账号风险的问题,这个就看个人取舍。

中文
0
0
0
140
佐仔
佐仔@huangjinbo·
自动 Claude 与 Codex 客户端支持第三方中转站后,就很少使用 Opencode 了...现在 Opencode 还有什么优秀的地方让你离不开了,讨论讨论...
中文
4
0
2
2.7K
Wousp
Wousp@qi9098·
@xiaoxiaodong01 6.4 亿 token 这个数字就很能说明问题了:agent 任务不是“开了会员就随便跑”,目标一发散,token 会变成黑洞。 所以我现在更倾向先算单位成本,再谈用哪个工具。Codex / GPT Pro / 中转站这条账我前两天刚拆过: x.com/qi9098/status/…
Wousp@qi9098

我算出了 GPT Pro 会员在 Codex 里面的实际 Token 单价竟然和中转站的价格相差甚微!我使用的是@cccchuizid 的PackyAPI,具体情况如下: 前两天从 GPT 的20倍 Pro 会员降到了5倍的档位。 然后上一周过完了之后,Token 差不多都用完了,就还剩6%。我让 Codex 帮我统计了一下过去一周的 Token 用量,并且估算出了,如果用到100%的话,分别 input、input hit cache、output 在 fast 和非 fast 以及在有两倍 promotion 和没有两倍 promotion 的情况下,实际上对应的 token 单价是多少 结果如下: Packy codex-sale x0.4: 比你的 10x promo 非 Fast 贵约 1.80 倍 比你的 10x promo Fast 便宜约 28% 比你的 5x 非 Fast 便宜约 10% 比你的 5x Fast 便宜约 64% Packy codex x0.5: 比你的 10x promo 非 Fast 贵约 2.26 倍 比你的 10x promo Fast 便宜约 10% 比你的 5x 非 Fast 贵约 13% 比你的 5x Fast 便宜约 55% 图中是详细的各个档位下的实际单价 可以推断的一点是10倍的 Promotion 非 fast 情况下的单价其实非常之低。然后这个单价理论上应该是跟20倍档位的 Pro 的单价应该是一样的。因为20倍的 Pro 的档位,默认包含了两倍的 Promotion。 那么由此可以推断出另外一个结论: 如果你的用量还没到5倍 Pro 的水平,按量用中转站其实可能更划算,尤其是 codex-sale 这种价格。 但如果你的用量已经超过了5倍,甚至接近10倍,而且主要跑 Codex / GPT-5.5 这种高价模型,那么这种情况下直接买官方 Pro 反而更划算。中转站当然也有稳定性和账号风险的问题,这个就看个人取舍。

中文
0
0
0
86
Wousp
Wousp@qi9098·
@NFTCPS 这种 dashboard 真有必要,不然 Claude Code / Codex 跑起来就是一种“体感很爽,账单未知”。 尤其现在 quota、subscription、API、中转站混着用,不把 token 折成单价,根本不知道哪条路线划算。 我前两天刚算了一版 Codex / GPT Pro 的 token 成本: x.com/qi9098/status/…
Wousp@qi9098

我算出了 GPT Pro 会员在 Codex 里面的实际 Token 单价竟然和中转站的价格相差甚微!我使用的是@cccchuizid 的PackyAPI,具体情况如下: 前两天从 GPT 的20倍 Pro 会员降到了5倍的档位。 然后上一周过完了之后,Token 差不多都用完了,就还剩6%。我让 Codex 帮我统计了一下过去一周的 Token 用量,并且估算出了,如果用到100%的话,分别 input、input hit cache、output 在 fast 和非 fast 以及在有两倍 promotion 和没有两倍 promotion 的情况下,实际上对应的 token 单价是多少 结果如下: Packy codex-sale x0.4: 比你的 10x promo 非 Fast 贵约 1.80 倍 比你的 10x promo Fast 便宜约 28% 比你的 5x 非 Fast 便宜约 10% 比你的 5x Fast 便宜约 64% Packy codex x0.5: 比你的 10x promo 非 Fast 贵约 2.26 倍 比你的 10x promo Fast 便宜约 10% 比你的 5x 非 Fast 贵约 13% 比你的 5x Fast 便宜约 55% 图中是详细的各个档位下的实际单价 可以推断的一点是10倍的 Promotion 非 fast 情况下的单价其实非常之低。然后这个单价理论上应该是跟20倍档位的 Pro 的单价应该是一样的。因为20倍的 Pro 的档位,默认包含了两倍的 Promotion。 那么由此可以推断出另外一个结论: 如果你的用量还没到5倍 Pro 的水平,按量用中转站其实可能更划算,尤其是 codex-sale 这种价格。 但如果你的用量已经超过了5倍,甚至接近10倍,而且主要跑 Codex / GPT-5.5 这种高价模型,那么这种情况下直接买官方 Pro 反而更划算。中转站当然也有稳定性和账号风险的问题,这个就看个人取舍。

中文
0
0
0
337
鸟哥 | 蓝鸟会🕊️
搞AI编程的注意了—— 你知道你每天用 Claude Code、Codex 这些 AI Agent 到底烧了多少钱吗?大多数人根本没概念,token 哗哗流水一样出去,账单来了才傻眼。 这个工具直接给你盯着:CLI 状态栏实时显示消耗,交互式 Dashboard 一眼看清楚,再也不用等到月底对账才心疼。 🔗 github.com/stormzhang/tok…
鸟哥 | 蓝鸟会🕊️ tweet media
中文
13
11
59
8.8K
Wousp
Wousp@qi9098·
@jesselaunz 这个切 Codex 的判断挺正常的。claude -p 单独算之后,Claude Code 的订阅价值其实被拆开了:手动交互 quota 一回事,自动化跑任务又是另一回事。 长期用最后还是要看实际 token 成本。我刚好算过一版 Codex / GPT Pro / 中转站的账: x.com/qi9098/status/…
Wousp@qi9098

我算出了 GPT Pro 会员在 Codex 里面的实际 Token 单价竟然和中转站的价格相差甚微!我使用的是@cccchuizid 的PackyAPI,具体情况如下: 前两天从 GPT 的20倍 Pro 会员降到了5倍的档位。 然后上一周过完了之后,Token 差不多都用完了,就还剩6%。我让 Codex 帮我统计了一下过去一周的 Token 用量,并且估算出了,如果用到100%的话,分别 input、input hit cache、output 在 fast 和非 fast 以及在有两倍 promotion 和没有两倍 promotion 的情况下,实际上对应的 token 单价是多少 结果如下: Packy codex-sale x0.4: 比你的 10x promo 非 Fast 贵约 1.80 倍 比你的 10x promo Fast 便宜约 28% 比你的 5x 非 Fast 便宜约 10% 比你的 5x Fast 便宜约 64% Packy codex x0.5: 比你的 10x promo 非 Fast 贵约 2.26 倍 比你的 10x promo Fast 便宜约 10% 比你的 5x 非 Fast 贵约 13% 比你的 5x Fast 便宜约 55% 图中是详细的各个档位下的实际单价 可以推断的一点是10倍的 Promotion 非 fast 情况下的单价其实非常之低。然后这个单价理论上应该是跟20倍档位的 Pro 的单价应该是一样的。因为20倍的 Pro 的档位,默认包含了两倍的 Promotion。 那么由此可以推断出另外一个结论: 如果你的用量还没到5倍 Pro 的水平,按量用中转站其实可能更划算,尤其是 codex-sale 这种价格。 但如果你的用量已经超过了5倍,甚至接近10倍,而且主要跑 Codex / GPT-5.5 这种高价模型,那么这种情况下直接买官方 Pro 反而更划算。中转站当然也有稳定性和账号风险的问题,这个就看个人取舍。

中文
0
0
0
38
Jesse Lau 遁一子
Jesse Lau 遁一子@jesselaunz·
claude打5掌给一个甜枣 claude -p单独计费,然后周用度期限提高50% 看来我的工作流要全面切换至codex了
Jesse Lau 遁一子 tweet media
中文
8
1
13
8.4K
Wousp
Wousp@qi9098·
@op7418 这个其实比 +50% 本身更关键。 Claude Code 交互额度是一池,Agent SDK / OpenClaw 这种 programmatic usage 又变成另一池,最后还是要回到 token / quota / credit 三套账一起算。 我前两天刚把 Codex 在 GPT Pro 里的实际 token 单价算了一遍,也顺手和中转站对过: x.com/qi9098/status/…
Wousp@qi9098

我算出了 GPT Pro 会员在 Codex 里面的实际 Token 单价竟然和中转站的价格相差甚微!我使用的是@cccchuizid 的PackyAPI,具体情况如下: 前两天从 GPT 的20倍 Pro 会员降到了5倍的档位。 然后上一周过完了之后,Token 差不多都用完了,就还剩6%。我让 Codex 帮我统计了一下过去一周的 Token 用量,并且估算出了,如果用到100%的话,分别 input、input hit cache、output 在 fast 和非 fast 以及在有两倍 promotion 和没有两倍 promotion 的情况下,实际上对应的 token 单价是多少 结果如下: Packy codex-sale x0.4: 比你的 10x promo 非 Fast 贵约 1.80 倍 比你的 10x promo Fast 便宜约 28% 比你的 5x 非 Fast 便宜约 10% 比你的 5x Fast 便宜约 64% Packy codex x0.5: 比你的 10x promo 非 Fast 贵约 2.26 倍 比你的 10x promo Fast 便宜约 10% 比你的 5x 非 Fast 贵约 13% 比你的 5x Fast 便宜约 55% 图中是详细的各个档位下的实际单价 可以推断的一点是10倍的 Promotion 非 fast 情况下的单价其实非常之低。然后这个单价理论上应该是跟20倍档位的 Pro 的单价应该是一样的。因为20倍的 Pro 的档位,默认包含了两倍的 Promotion。 那么由此可以推断出另外一个结论: 如果你的用量还没到5倍 Pro 的水平,按量用中转站其实可能更划算,尤其是 codex-sale 这种价格。 但如果你的用量已经超过了5倍,甚至接近10倍,而且主要跑 Codex / GPT-5.5 这种高价模型,那么这种情况下直接买官方 Pro 反而更划算。中转站当然也有稳定性和账号风险的问题,这个就看个人取舍。

中文
0
0
0
91
歸藏(guizang.ai)
Claude Code 的每周限额将增加 50%,持续到 7 月 13 号。 但是他们这次终于把类似 OpenClaw 和 Codepilot 这种使用 Agent SDK 构建的应用额度砍了。 6月 15 号开始是双轨制: 只有在 Claude Code 本身及其内部,你的 Max 和 Pro 账户才能享受正常额度。 如果你是用于 Agent SDK 构建的产品(也就是一些支持 Claude 账号登录的三方产品),你的额度会被折算成对应金额的 API 额度。 所以基本上,我们的额度减了十几倍吧。 比如说 Max 账户 20 倍的 200 美元 API 额度,如果你用 Claude 4.6 随便跑点大项目,估计半天就消耗光了。这下估计去 Codex 的人更多了。 主要是他们还玩文字游戏,削减配额就削减配额吧,非要说完全没变化,太不要脸了。
歸藏(guizang.ai) tweet media歸藏(guizang.ai) tweet media
Lydia Hallie ✨@lydiahallie

To add some clarity: you don't pay extra. It's the same subscription, same price per month. What's new our sub now covers two separate pools: · Interactive → sub limits, unchanged · Programmatic → new $20–$200 included(!!) credit, metered at API rates

中文
24
0
23
24.6K
Wousp
Wousp@qi9098·
@innomad_io 这类 VPS 部署交给 Codex 之后,最容易上瘾的不是“少敲几行命令”,是不用自己在 ssh / 测试 / 修错之间来回切。 但长期这么用,Codex Pro 到底便不便宜还是得折成实际 token 单价看。我前两天刚把自己 GPT Pro 里的 Codex 用量算了一遍,也和中转站价格对了下: x.com/qi9098/status/…
Wousp@qi9098

我算出了 GPT Pro 会员在 Codex 里面的实际 Token 单价竟然和中转站的价格相差甚微!我使用的是@cccchuizid 的PackyAPI,具体情况如下: 前两天从 GPT 的20倍 Pro 会员降到了5倍的档位。 然后上一周过完了之后,Token 差不多都用完了,就还剩6%。我让 Codex 帮我统计了一下过去一周的 Token 用量,并且估算出了,如果用到100%的话,分别 input、input hit cache、output 在 fast 和非 fast 以及在有两倍 promotion 和没有两倍 promotion 的情况下,实际上对应的 token 单价是多少 结果如下: Packy codex-sale x0.4: 比你的 10x promo 非 Fast 贵约 1.80 倍 比你的 10x promo Fast 便宜约 28% 比你的 5x 非 Fast 便宜约 10% 比你的 5x Fast 便宜约 64% Packy codex x0.5: 比你的 10x promo 非 Fast 贵约 2.26 倍 比你的 10x promo Fast 便宜约 10% 比你的 5x 非 Fast 贵约 13% 比你的 5x Fast 便宜约 55% 图中是详细的各个档位下的实际单价 可以推断的一点是10倍的 Promotion 非 fast 情况下的单价其实非常之低。然后这个单价理论上应该是跟20倍档位的 Pro 的单价应该是一样的。因为20倍的 Pro 的档位,默认包含了两倍的 Promotion。 那么由此可以推断出另外一个结论: 如果你的用量还没到5倍 Pro 的水平,按量用中转站其实可能更划算,尤其是 codex-sale 这种价格。 但如果你的用量已经超过了5倍,甚至接近10倍,而且主要跑 Codex / GPT-5.5 这种高价模型,那么这种情况下直接买官方 Pro 反而更划算。中转站当然也有稳定性和账号风险的问题,这个就看个人取舍。

中文
0
0
0
47
Innomad 一挪迈
Innomad 一挪迈@innomad_io·
自从订了 Codex Pro,我现在连 ssh vps 部署都全交给 codex,真的懒得一个个敲命令和测试😅
中文
3
0
11
2.7K
Wousp
Wousp@qi9098·
@MoYU_7777 “同样的 token,不同单价”这个点才是关键。模型强弱是一回事,真长期用起来,最后还是要折回有效 token 单价。 我前两天刚把 GPT Pro 里的 Codex 实际单价算了一遍,也顺手和中转站价格对了下: x.com/qi9098/status/…
Wousp@qi9098

我算出了 GPT Pro 会员在 Codex 里面的实际 Token 单价竟然和中转站的价格相差甚微!我使用的是@cccchuizid 的PackyAPI,具体情况如下: 前两天从 GPT 的20倍 Pro 会员降到了5倍的档位。 然后上一周过完了之后,Token 差不多都用完了,就还剩6%。我让 Codex 帮我统计了一下过去一周的 Token 用量,并且估算出了,如果用到100%的话,分别 input、input hit cache、output 在 fast 和非 fast 以及在有两倍 promotion 和没有两倍 promotion 的情况下,实际上对应的 token 单价是多少 结果如下: Packy codex-sale x0.4: 比你的 10x promo 非 Fast 贵约 1.80 倍 比你的 10x promo Fast 便宜约 28% 比你的 5x 非 Fast 便宜约 10% 比你的 5x Fast 便宜约 64% Packy codex x0.5: 比你的 10x promo 非 Fast 贵约 2.26 倍 比你的 10x promo Fast 便宜约 10% 比你的 5x 非 Fast 贵约 13% 比你的 5x Fast 便宜约 55% 图中是详细的各个档位下的实际单价 可以推断的一点是10倍的 Promotion 非 fast 情况下的单价其实非常之低。然后这个单价理论上应该是跟20倍档位的 Pro 的单价应该是一样的。因为20倍的 Pro 的档位,默认包含了两倍的 Promotion。 那么由此可以推断出另外一个结论: 如果你的用量还没到5倍 Pro 的水平,按量用中转站其实可能更划算,尤其是 codex-sale 这种价格。 但如果你的用量已经超过了5倍,甚至接近10倍,而且主要跑 Codex / GPT-5.5 这种高价模型,那么这种情况下直接买官方 Pro 反而更划算。中转站当然也有稳定性和账号风险的问题,这个就看个人取舍。

中文
0
0
0
19
墨鱼(:◎) |🐬TermMax
下面向你走来的是 AI 届疯狗 首届算电同价选手 deepseek 🐶 同样的token 不同单价 虽然我很难用 但是我很香 梁文峰:我们的原则 不亏钱 就是赢 大白话翻译就是: 我也许菜 但是 我他妈是白菜价🥬 如果你要问前期烧的钱怎么办(技术研发 运营成本)这些,我只能说你小瞧梁少了。 他不缺钱 毕竟大A(幻方量化基金)已经给它集资了 作为 投资届最严厉的父亲 AI届最慈悲的勇士 梁少请收下我的膝盖 我专门为你找的配图 主要这配图也适合你 表达的就是那种 藐视表情 意思就是 我现在也就是技术上面差点,但是前面的别被我这只疯狗🐶追上你,追上你😏 你公司的市值就归零了
墨鱼(:◎) |🐬TermMax tweet media墨鱼(:◎) |🐬TermMax tweet media
中文
26
0
19
4.4K
Wousp
Wousp@qi9098·
@NFTCPS 这个小屏幕有点好笑,但它其实把 Claude Code 的痛点讲透了:不是大家不知道 token 会烧,是不知道还剩多少、什么时候归零。 我前两天也刚把 Codex 在 GPT Pro 里的实际 token 单价和中转站价格对了一遍,算完之后 quota 焦虑会清楚很多: x.com/qi9098/status/…
Wousp@qi9098

我算出了 GPT Pro 会员在 Codex 里面的实际 Token 单价竟然和中转站的价格相差甚微!我使用的是@cccchuizid 的PackyAPI,具体情况如下: 前两天从 GPT 的20倍 Pro 会员降到了5倍的档位。 然后上一周过完了之后,Token 差不多都用完了,就还剩6%。我让 Codex 帮我统计了一下过去一周的 Token 用量,并且估算出了,如果用到100%的话,分别 input、input hit cache、output 在 fast 和非 fast 以及在有两倍 promotion 和没有两倍 promotion 的情况下,实际上对应的 token 单价是多少 结果如下: Packy codex-sale x0.4: 比你的 10x promo 非 Fast 贵约 1.80 倍 比你的 10x promo Fast 便宜约 28% 比你的 5x 非 Fast 便宜约 10% 比你的 5x Fast 便宜约 64% Packy codex x0.5: 比你的 10x promo 非 Fast 贵约 2.26 倍 比你的 10x promo Fast 便宜约 10% 比你的 5x 非 Fast 贵约 13% 比你的 5x Fast 便宜约 55% 图中是详细的各个档位下的实际单价 可以推断的一点是10倍的 Promotion 非 fast 情况下的单价其实非常之低。然后这个单价理论上应该是跟20倍档位的 Pro 的单价应该是一样的。因为20倍的 Pro 的档位,默认包含了两倍的 Promotion。 那么由此可以推断出另外一个结论: 如果你的用量还没到5倍 Pro 的水平,按量用中转站其实可能更划算,尤其是 codex-sale 这种价格。 但如果你的用量已经超过了5倍,甚至接近10倍,而且主要跑 Codex / GPT-5.5 这种高价模型,那么这种情况下直接买官方 Pro 反而更划算。中转站当然也有稳定性和账号风险的问题,这个就看个人取舍。

中文
0
0
0
30
鸟哥 | 蓝鸟会🕊️
程序员的精神内耗又多一个具象化产物 😅 ESP32 搞个小破屏幕杵桌上,就为了瞥一眼 Claude Code 还剩多少配额,不用切终端了。 说白了这玩意儿反映了几件事: 1️⃣ Claude Code 是真烧额度,烧到大家开始搞硬件监控了 2️⃣ 终端 cc usage 已经满足不了焦虑型选手,得有实体仪表盘才踏实 3️⃣ 极客的快乐就是这么朴素,能折腾就绝不闲着 下一步是不是该上个报警器,配额见底直接拉响防空警报? 🔗 github.com/HermannBjorgvi…
鸟哥 | 蓝鸟会🕊️ tweet media鸟哥 | 蓝鸟会🕊️ tweet media
鸟哥 | 蓝鸟会🕊️@NFTCPS

微软又整活了❗️开源了个叫 TRELLIS 的 3D 生成模型,还直接入选 CVPR'25 Spotlight 一句话总结:丢张图或打几个字,高质量 3D 资产直接给你吐出来,3D 建模师怕不是要集体失业😅 四个点说完: 1️⃣ 生成质量能打,形状纹理都在线 2️⃣ 输出格式随便选,Radiance Fields、3D Gaussians、Mesh 全都要 3️⃣ 支持局部编辑,不满意直接改,不用重做 4️⃣ 还能塞多张图进去,生成更贴近你想要的模型 官网有 Demo 可以直接玩,设计师、开发者、搞研究的都冲一波 🔗 github.com/microsoft/TREL… 🔗 trellis3d.github.io

中文
17
2
9
14.6K
Wousp
Wousp@qi9098·
@1999_eth 5800 注册、每天两三百亿 token 这个量级,已经不是“搭个中转站”了,后面全是号池、调度、风控、支付这些脏活。 我前两天刚从使用侧算了一下 GPT Pro 里的 Codex 有效 token 单价,再和中转站价格对比了一遍,刚好能当用户侧参考: x.com/qi9098/status/…
Wousp@qi9098

我算出了 GPT Pro 会员在 Codex 里面的实际 Token 单价竟然和中转站的价格相差甚微!我使用的是@cccchuizid 的PackyAPI,具体情况如下: 前两天从 GPT 的20倍 Pro 会员降到了5倍的档位。 然后上一周过完了之后,Token 差不多都用完了,就还剩6%。我让 Codex 帮我统计了一下过去一周的 Token 用量,并且估算出了,如果用到100%的话,分别 input、input hit cache、output 在 fast 和非 fast 以及在有两倍 promotion 和没有两倍 promotion 的情况下,实际上对应的 token 单价是多少 结果如下: Packy codex-sale x0.4: 比你的 10x promo 非 Fast 贵约 1.80 倍 比你的 10x promo Fast 便宜约 28% 比你的 5x 非 Fast 便宜约 10% 比你的 5x Fast 便宜约 64% Packy codex x0.5: 比你的 10x promo 非 Fast 贵约 2.26 倍 比你的 10x promo Fast 便宜约 10% 比你的 5x 非 Fast 贵约 13% 比你的 5x Fast 便宜约 55% 图中是详细的各个档位下的实际单价 可以推断的一点是10倍的 Promotion 非 fast 情况下的单价其实非常之低。然后这个单价理论上应该是跟20倍档位的 Pro 的单价应该是一样的。因为20倍的 Pro 的档位,默认包含了两倍的 Promotion。 那么由此可以推断出另外一个结论: 如果你的用量还没到5倍 Pro 的水平,按量用中转站其实可能更划算,尤其是 codex-sale 这种价格。 但如果你的用量已经超过了5倍,甚至接近10倍,而且主要跑 Codex / GPT-5.5 这种高价模型,那么这种情况下直接买官方 Pro 反而更划算。中转站当然也有稳定性和账号风险的问题,这个就看个人取舍。

中文
0
0
0
17
老叶
老叶@1999_eth·
老叶 AI 中转站 apikey.fun,上线第 6 天了。 今天看了下后台,累计注册用户已经到了 5800 人。 这几天平均每天新增 1000 个左右。 说实话,这个速度有点超出预期。 但更超出预期的是,我居然真的扛下来了。 如果把前面 10 天内测也算上,这半个月基本没有哪天是正常睡觉的。 白天处理注册、订阅、加号、维护号池稳定性; 看群里反馈、补文档、写脚本、改功能; 真正能静下来写代码,基本都已经是凌晨 1 点以后。 很多天都是凌晨三四点才关电脑。 这几天我最大的感受是: 产品上线后,真正的压力不是流量来了,而是流量来了以后,你能不能接得住。 目前每天承接的 Token 消耗,基本都在两三百亿级别。 看起来只是一个 AI 中转站。 但背后其实是号池、调度、监控、风控、支付、客服、文档、客户端适配,一整套东西在一起跑。 便宜不难,难的是便宜的同时还要稳。 能跑不难,难的是几千个人一起跑还不能崩。 上线到现在,我一共建了 10 个微信群。 从第一天开始,群里的问题基本都是我自己在回。 很多配置文档,都是边回答用户边补出来的。 很多一键脚本,也是用户反复问、我反复改,最后一点点做出来的。 现在几乎每一个主流客户端,我都单独写了对应的一键配置脚本。 效果也很明显。 最开始同一个问题一天可能要回答一两百次。 现在类似问题,应该已经下降了 80% 以上。 所以我越来越相信: 真正好的产品,不是让用户变聪明,而是把复杂的东西尽量藏在自己身后。 还有很多用户问: 为什么感觉老叶的中转站速度挺快? 这里也说一个很多人不知道的细节。 从上线第一天开始,我们默认优先给用户走的 API 链路,就是阿里云 CDN,而不是 Cloudflare。 Cloudflare 成本基本可以忽略不计。 但阿里云这边,我每天几百 G 的流量,都是实打实要付钱的。 这是一笔隐藏成本。 不说的话,可能很多人根本感受不到。 但我觉得,用户感受到的速度,背后一定有人在承担成本。 体验不会凭空变好,只是很多成本没有出现在用户眼前。 这 6 天真的很累。 但看到群里有人说: “终于配好了。” “速度确实可以。” “小白也能用了。” “老叶这个站挺稳。” 我又觉得还能继续扛一扛。 我知道很多人一开始用 apikey.fun,是因为信任老叶。 但我更希望以后大家留下来,不只是因为信任我。 而是因为这个东西本身,真的稳定、便宜、好用、有人负责。 信任可以带来第一批用户。 但长期留下来的,一定还是产品本身。 上线 6 天,还只是刚刚开始。 老叶继续交作业。 也希望以后大家提到 apikey.fun 的时候, 不只是说:“这是老叶做的。” 而是会说:“这个东西,确实挺靠谱。”
老叶 tweet media
中文
41
15
172
24K