tzwm

15.8K posts

tzwm banner
tzwm

tzwm

@tzwm

……

Latent Space Katılım Şubat 2010
1.9K Takip Edilen1.5K Takipçiler
tzwm
tzwm@tzwm·
赚奶粉钱现在得是赚 token 钱了。更贵而且人生体验差异更大了。
中文
0
0
1
78
tzwm
tzwm@tzwm·
提前一站买咖啡到提前两站三站,现在得提前四站了……
中文
0
0
0
106
tzwm
tzwm@tzwm·
彻底弃用了使用多年的 obsidian。
中文
0
0
0
132
tzwm
tzwm@tzwm·
在这种超敏捷研发节奏中,自动化所有流程变得格外重要。CI/CD 的全面覆盖、高效是最重要的基石。每天机关枪式的 commits,得能让这些变更全自动并且稳定输送到 dev/prod 上。精力只花在纯粹的跟多 agents 协作开发上。
中文
0
0
1
119
tzwm
tzwm@tzwm·
尽量减少人类阻塞关口,流程上从人类同步阻塞尽量改成异步的。比如完全放弃 PR 流程,改为每日看看昨天项目里其他人贡献了些啥、重大变更施工前跟其他人打个招呼但也不做过多讨论和评审等。
中文
0
0
0
105
tzwm
tzwm@tzwm·
一个项目能拆分成多人同时开发这件事变得越来越难了。古法编程大家还能大体按照需求、功能点来拆。现在连按照大的模块来拆都不一定分的。而且人类之间的沟通在当前开发节奏中绝对是很大的效率卡点。
中文
0
0
4
261
tzwm
tzwm@tzwm·
一个娃出门走一百米就累了要抱,三个娃出门可以精力旺盛到走 10km 还想继续。
中文
0
0
2
104
tzwm
tzwm@tzwm·
没想清楚多人还有多 agents 在一起要如何流畅高效协作。传统的产研流程和沟通方式当下很不舒服,也许需要重新设计文字沟通的协议。传统 PRD 在当下容易经历反复扩写和压缩,效率低下还容易丧失精髓。也许交流种子 prompt 和相关的 agent session 能更有效,再结合完善的组织 context。
中文
1
0
1
99
tzwm
tzwm@tzwm·
感觉有了 agent 后,人跟人之间的沟通变得更难了,大家距离变得更远了……
中文
0
0
0
67
tzwm
tzwm@tzwm·
娃时不时在睡前哭诉一天过得实在太快了。他这次去济州岛参观徐福的展馆,对长生不死印象格外深,每天都说自己要长生不老。感觉我家娃才四岁不到就陷入了对生命时间不够用的焦虑之中……
中文
0
0
1
231
tzwm
tzwm@tzwm·
也不知道自己用的模型到底经历了多少层 newapi 的套娃才来到了我的 agent 里。
中文
0
0
1
99
tzwm
tzwm@tzwm·
每个同事都有至少一个飞书 bot,拥有账号下所有权限和数据。我一句话发出去总感觉就被同事们的一大堆 agents 给接收了,化为了大量的 tokens。很奇妙的感觉……
中文
0
0
0
164
tzwm
tzwm@tzwm·
王多鱼在当前时代应该就没那么愁了,给 agent 绑上钱包后,花钱效率贼高……
中文
0
0
0
98
tzwm
tzwm@tzwm·
国内还有这么多家在持续做 LLM 而且各有特色没掉队,感觉真挺厉害的……
中文
0
0
3
238
tzwm
tzwm@tzwm·
最近感知到自己也降智得厉害,跟 LLM 现状也差不多。但我没法扩容,也无法知道自己是不是能恢复……
中文
2
0
2
174
tzwm
tzwm@tzwm·
确实是爆肝了快一个月,中间也踩了不少坑,也犹豫徘徊过。但怎么都等不到自己心中的 agent 平台,内心中又总是有强烈的想要把这个做出来的欲望,现在总算快到便秘半天💩要拉出来的时候了。这个时代下我更加相信不用等自己想要的东西自然产生,自己肝……
中文
1
0
4
276
tzwm
tzwm@tzwm·
看到 vercel 放出的 open-agents,跟我爆肝了差不多一个月的云平台还挺像的。等这两周再打磨打磨放出来给大家玩。没有各种花哨的 harness,非常朴素。就是基于一个 workspace 开启一个 agent runtime,然后能朴素 chat。同时支持多 channel 类型、多人协作、cronjob、fork 和批奏折合并等。
tzwm tweet media
中文
1
1
7
356
tzwm retweetledi
ModelScope
ModelScope@ModelScope2022·
ACE-Step 1.5 XL is open-source! 4B DiT decoder, three variants. 🚀 Beats Suno v5 on SongEval (4.79 vs 4.72), Style Align 47.9 — #1 across all models tested. From 12GB VRAM (INT8 offload) to 24GB full quality. MIT license. Commercial-safe training data. Three variants, three use cases: ✅ XL Base — all tasks (extract, Lego, completion), high diversity, best for fine-tuning ✅ XL SFT — highest audio quality, CFG guidance scale control ✅ XL Turbo — 8-step distilled, fastest, no CFG (early release) All compatible with LM 0.6B / 1.7B / 4B. 🤖 Base: modelscope.ai/models/ACE-Ste… 🤖 SFT: modelscope.ai/models/ACE-Ste… 🤖 Turbo: modelscope.ai/models/ACE-Ste…
ModelScope tweet media
English
11
70
402
76.2K