周尔复

10.7K posts

周尔复 banner
周尔复

周尔复

@cholf5

游戏后端主程|15年开发经验; 做游戏|聊真实开发人生|AI工具实践; 后端:.NET, Go, Skynet; 前端:Unity, Godot, UE, LÖVE; 开发工具偏好:JetBrains, Codex; 独立游戏长期探索者; FIRE 路径践行中

Shanghai Katılım Kasım 2010
724 Takip Edilen11.1K Takipçiler
周尔复
周尔复@cholf5·
@Wave52_ 很难,比如网易的梦幻西游,20多年的老项目了,还很欣欣向荣,俨然一副「生龙活虎老年人」的样子。这种项目可以预见还能存在很长时间。
中文
0
0
0
62
wave52
wave52@Wave52_·
@cholf5 我也观察到很多老项目细节很多,极其复杂,又没文档,ai做的时候确实表现很差。我觉得只是说做这些事情的人不太容易被取代,但有可能这个事情直接就被取代了。
中文
1
0
1
88
周尔复
周尔复@cholf5·
忙到现在才下班,感觉我司这个老项目,程序员想要被取代还是有点难。策划案写的一坨答辩一样,都是给个眼神自己体会。需求要从策划牙缝里一点点抠出来。然后 CI 流程、QA 测试流程、MR 流程、出版本流程,摩擦力大到可怕。策划配置表也极其抽象,不用 Luban,自己造个极难用的轮子,AI 永远别想整明白
中文
9
0
14
3.5K
周尔复
周尔复@cholf5·
推荐5个用严格流程来提升代码质量的 skills npx skills@latest add mattpocock/skills/grill-me npx skills@latest add mattpocock/skills/write-a-prd npx skills@latest add mattpocock/skills/prd-to-issues npx skills@latest add mattpocock/skills/tdd npx skills@latest add mattpocock/skills/improve-codebase-architecture
周尔复 tweet media
English
3
13
63
2.3K
周尔复
周尔复@cholf5·
@chumacn 不需要固定记忆啊,难道不是用 Claude Code 写代码吗?跨会话就是不能有记忆,不然会互相干扰。如果你只是聊天,那 ChatGPT 就够了。
中文
1
0
0
294
初码
初码@chumacn·
@cholf5 这个没法固定记忆,而且感觉数据不安全
中文
1
0
1
1.4K
初码
初码@chumacn·
妈的全部归零了,万能的X友,我的U卡也被封的差不多了,如何安全的支付Claude,有没有懂的指导一下!
中文
43
0
34
18.6K
周尔复
周尔复@cholf5·
@demmosee 首周销售占总销售额的百分之八九十没问题
中文
1
0
1
169
demmosee
demmosee@demmosee·
@cholf5 他不是全部赚20w,是首周,后面爆了赚上百万几百万都可能
中文
1
0
1
174
周尔复
周尔复@cholf5·
虽然这个项目已经算很成功了,也为他挣了很多钱,但是这个钱仍然远少于他打工能挣到的钱。可见想靠独立游戏挣到超过打工的钱有多难。不过自己做比较自由自在就是了。他已经有成功路径了,未来可期。
Pirat_Nation 🔴@Pirat_Nation

After 4 years of work, solo dev Cakez breaks down in tears after opening Steam and learning his game Tangy TD made $250,000 in a week: "I feel like I really don't deserve this."

中文
6
1
19
5.8K
周尔复
周尔复@cholf5·
@anata_404 还好,毕竟不是一直能打工。马上大家都要失业了,好好在家做独立游戏才是从业者未来的形态。
中文
0
0
2
204
青云
青云@anata_404·
@cholf5 简直就是独立游戏开发劝退贴😂
中文
1
0
0
210
ljh
ljh@Peter2814851·
@cholf5 @MiniMax_AI 虽然我是Minimax年费会员 但是看你的tweet很像复制粘贴的广😂
中文
1
0
2
37
周尔复
周尔复@cholf5·
MiniMax 发布了 MiniMax-M2.7,以不到 GLM-5 三分之一的成本提供了 GLM-5 级别的智能。 来自 @MiniMax_AI 的 MiniMax-M2.7 在人工智能分析智能指数 (AII) 中获得 50 分,比一个月前发布的 MiniMax-M2.5 提高了 8 分。这主要得益于其在真实世界智能体任务中更强劲的性能以及更少的幻觉。MiniMax-M2.7 目前领先于 MiMo-V2-Pro(推理,49 分)和 Kimi K2.5(推理,47 分),与 GLM-5(推理,50 分)性能相当,同时输出令牌数量减少了 20%,运行成本不到其三分之一。MiniMax-M2.7 是一款仅支持推理的模型,其每个令牌的定价与 MiniMax-M2.5 相同。 要点总结: ➤在真实世界的智能体任务中表现出色:MiniMax-M2.7 的 GDPval-AA Elo 评分为 1494,较 MiniMax-M2.5 (1203) 有显著提升,并优于 MiMo-V2-Pro(推理,1426)、GLM-5(推理,1406)和 Kimi K2.5(推理,1283)。但仍落后于 GPT-5.4(xhigh,1667)和 Claude Opus 4.6(自适应推理,最大努力值,1606)等前沿模型。 ➤幻觉减少:MiniMax-M2.7 在 AA-Omniscience 指数上得分 +1,高于 MiniMax-M2.5(-40)。这与 GPT-5.2(xhigh,-1)和 GLM-5(推理,+2)相当,并且远超 Kimi K2.5(推理,- 8) 。M2.7 相较于 M2.5 的改进完全源于幻觉的减少,这意味着该模型在不知道答案时更倾向于不作答,而不是猜测。M2.7 的幻觉率为 34%,低于 Claude Sonnet 4.6(自适应推理,最大努力,46 %)和 Gemini 3.1 Pro Preview(50 %) 。 ➤与 MiniMax-M2.5 相比,大多数评估项目均有所提升:除上述 GDPval-AA 和 AA-Omniscience 的改进外,MiniMax-M2.7 在 HLE(+9 个百分点)、TerminalBench Hard(+5 个百分点)、SciCode(+4 个百分点)、IFBench(+4 个百分点)、GPQA(+3 个百分点)和 LCR(+3 个百分点)方面均有所提升。但在 τ²-Bench 测试中,我们观察到明显的退步(-11 个百分点)。 ➤令牌使用量增加:MiniMax-M2.7 运行人工智能分析智能指数时使用了约 8700 万个输出令牌,比 MiniMax-M2.5(约 5600 万个)增加了 55%。它仍然比其他模型(例如 GLM-5(推理,1.1 亿个)和 Kimi K2.5(推理,约 8900 万个))更节省令牌。 ➤领先的成本效益:MiniMax-M2.7 运行人工智能分析智能指数的成本为 176 美元,与 M2.5 保持相同的每百万输入/输出 0.30 美元/1.20 美元的定价。这使其位于我们智能与成本图表的帕累托前沿。作为参考,同等智能水平的 GLM-5(推理)成本为 547 美元,Kimi K2.5(推理)成本为 371 美元,Gemini 3 Flash Preview(推理)成本为 278 美元。 主要模型细节: ➤上下文窗口:200K 个标记(相当于 MiniMax-M2.5)。 ➤定价:每 100 万个输入/输出代币 0.30 美元/1.20 美元(与 MiniMax-M2.5 相同)。 ➤可用性:仅限 MiniMax 第一方 API。 ➤模式:仅文本输入和输出(无多模态)。 ➤许可:MiniMax尚未宣布MiniMax-M2.7是否会开源。MiniMax-M2.5采用MIT许可。
Artificial Analysis@ArtificialAnlys

MiniMax has released MiniMax-M2.7, delivering GLM-5-level intelligence for less than one third of the cost MiniMax-M2.7 from @MiniMax_AI scores 50 on the Artificial Analysis Intelligence Index, an 8-point improvement over MiniMax-M2.5, which was released one month ago. This is driven by stronger performance on real-world agentic tasks and reduced hallucinations. MiniMax-M2.7 is now ahead of MiMo-V2-Pro (Reasoning, 49) and Kimi K2.5 (Reasoning, 47), and equivalent to GLM-5 (Reasoning, 50) while using 20% fewer output tokens and costing less than a third as much to run. MiniMax-M2.7 is a reasoning-only model and maintains the same per-token pricing as MiniMax-M2.5. Key takeaways: ➤ Strong performance on real-world agentic tasks: MiniMax-M2.7 achieves a GDPval-AA Elo of 1494, a significant improvement from MiniMax-M2.5 (1203) and ahead of MiMo-V2-Pro (Reasoning, 1426), GLM-5 (Reasoning, 1406), and Kimi K2.5 (Reasoning, 1283). It remains behind frontier models such as GPT-5.4 (xhigh, 1667) and Claude Opus 4.6 (Adaptive Reasoning, max effort, 1606) ➤ Reduced hallucinations: MiniMax-M2.7 scores +1 on the AA-Omniscience Index, up from MiniMax-M2.5 (-40). This is competitive with GPT-5.2 (xhigh, -1) and GLM-5 (Reasoning, +2), and well ahead of Kimi K2.5 (Reasoning, -8). The improvement from M2.5 is purely driven by reduced hallucinations, meaning the model is more likely to abstain from answering when it doesn’t know the answer, rather than guessing. M2.7 achieves a hallucination rate of 34%, lower than Claude Sonnet 4.6 (Adaptive Reasoning, max effort, 46%) and Gemini 3.1 Pro Preview (50%). ➤ Gains across most evaluations compared to MiniMax-M2.5: Outside of the GDPval-AA and AA-Omniscience improvements noted above, MiniMax-M2.7 improves in HLE (+9 p.p.), TerminalBench Hard (+5 p.p.), SciCode (+4 p.p.), IFBench (+4 p.p.), GPQA (+3 p.p.), and LCR (+3 p.p.). We saw a notable regression in τ²-Bench (-11 p.p.). ➤ Increased token use: MiniMax-M2.7 used ~87M output tokens to run the Artificial Analysis Intelligence Index, up 55% from MiniMax-M2.5 (~56M). It remains more token-efficient than other models such as GLM-5 (Reasoning, 110M) and Kimi K2.5 (Reasoning, ~89M) ➤ Leading cost efficiency: MiniMax-M2.7 cost $176 to run the Artificial Analysis Intelligence Index, maintaining the same $0.30/$1.20 per 1M input/output pricing as M2.5. This places it on the Pareto frontier of our Intelligence vs. Cost chart. For context, GLM-5 (Reasoning) cost $547 at equivalent intelligence, Kimi K2.5 (Reasoning) cost $371, and Gemini 3 Flash Preview (Reasoning) cost $278 Key model details: ➤ Context window: 200K tokens (equivalent to MiniMax-M2.5). ➤ Pricing: $0.30/$1.20 per 1M input/output tokens (unchanged from MiniMax-M2.5). ➤ Availability: MiniMax first-party API only. ➤ Modality: Text input and output only (no multimodality). ➤ Licensing: MiniMax has not announced whether MiniMax-M2.7 will be open weights. MiniMax-M2.5 is available under the MIT license.

中文
5
0
5
1.3K
周尔复
周尔复@cholf5·
虽然 lazygit 已经很懒了,但我还可以更懒
周尔复 tweet media
中文
5
0
7
703
周尔复
周尔复@cholf5·
Codex 王者归来
周尔复 tweet media
中文
8
1
17
5.7K
周尔复
周尔复@cholf5·
@imvihv 我这是熬时间熬的啊,不是大赦天下
中文
0
0
2
547
周尔复
周尔复@cholf5·
@jolestar 确实是个思路,但是感觉多一道网络调用,一个是速度会更慢,一个是可能会更消耗 Token,还是算了。 不符合我的「Just becaust you can, doesn't mean you should」原则😂
中文
3
0
1
1K
jolestar
jolestar@jolestar·
@cholf5 你给它配置个 ssh key,它直接通过 ssh 远程写也能搞定的,我试过😅
中文
2
0
6
1.5K
周尔复
周尔复@cholf5·
虽然 Codex App 现在越做越好,但最近在公司遇到一个使用场景,让我明白 CLI 还是有不可替代性。 我们项目最近在推后端全员迁移到 Linux 上开发,人手一台 16C128G 的云服务器做为开发机,平时写代码就用 VSCode Remote SSH,而 Codex App 在这种情况下就毫无用武之地。
kitze 🛠️ tinkerer.club@thekitze

the Codex app is a trillion and one time better than the codex cli and any other cli as a matter of fact. fuck tui, gimme ui all day every day

中文
24
1
34
28.1K
周尔复
周尔复@cholf5·
@Xeift1 我知道,一直在用,但是体验跟 Codex App 还是差点意思,更像是一个 GUI 版的 CLI
中文
0
0
1
653
Xeift
Xeift@Xeift1·
@cholf5 可以用 VSC Codex 插件,Ubuntu 沒 App 可用,我一直都用這個
日本語
1
0
1
743
周尔复
周尔复@cholf5·
第一次在 ChatGPT 里看到广告……
周尔复 tweet media
中文
2
1
9
4.6K
周尔复
周尔复@cholf5·
@tsqkcehz 你也说了还没出,而且永远也不可能出。我们的Linux都是云服务器,上哪装界面去,而且装个界面感觉也太挫了。
中文
0
0
0
902
tsqkcehz
tsqkcehz@tsqkcehz·
@cholf5 都这个配置的机器配个GUI界面不就好了,不过codex app虽然是electron但是windows都拖了好久才出来,linux还没出
中文
1
0
2
1.2K
周尔复
周尔复@cholf5·
@jekindsww 那当然是晚上。下午3点下班,就是公务员也不敢想。
中文
0
0
1
257