
最近的一个副业,是和朋友一起研究 Agentic Arbitrage。 下午让 codex 从 github 搜索下载了一些开源工具进行学习,发现了一些疑似投毒的仓库。 比如以下几个看起来像是聪明钱追踪的项目: github.com/456ape/kalshi-… github.com/dealermemefi/p… github.com/punkde99/polym… 有完全一样的代码内容,不同风格的 README ,和乍看之下颇具吸引力实则不符合逻辑的 fake 图片。更重要的是他们都引入了可疑的 dll 依赖。 坏消息是:为了分析这些项目,今天的 token 提前用完了。 好消息是:这些 token 足以让 codex 判断出这个项目 “不值得作为正常开源套利项目进行研究”。 而这个时代显然需要更好的基础设施来过滤 AI 大规模生成的废料。很多时候,这不仅仅是浪费的,更可能是恶意的。 那么如何做呢? 大概率得通过烧另外一些 Token 来过滤这些恶意行为。 一个直接但低效的方式是: 👉 每个用户都自己调用 AI / LLM 去做判断 但这显然包含着大量重复的硅基劳动力。 所以一个更合理的方向可能是: 将“内容安全判断”做成一种公共基础设施,而不是个人行为。 进一步来说: 是否可以构建一种协议,让“非恶意的 AI Agent”协同工作,共同标记和过滤恶意的 AI 产物? 而这恰好和我们团队最近一直在思考的一些问题有关。如果你也对这个方向感兴趣,欢迎交流。






