

peter
6.2K posts






每个人都必装的5个Codex神级 Skill 工具 我感觉 Codex 被越来越多人选择了,不仅用起来便宜,而且注册简单,没有 Claude 那些被封号的糟心事,最重要的是这次更新让 Codex 的能力提升了一大截。我目前的体验是在很多方面都要比 Claude 要强了。 但是有人反映自己的 Codex 并不好用,其实是因为有几个神器你没有给 Codex 安装,不废话了,干货来了: 1. github.com/ComposioHQ/awe… 9.1K Star 【awesome-codex-skills】这个Skill 我看很多朋友都推荐过了,我在亲自使用后也来推荐,确实好用。为什么把它放在第一个,因为这个Skill本质上是个Skill合集,包括了 开发代码类,生产力类,写作类,数据分析类和实用工具类5大部分。大家可以在合集中挑选自己适合自己的安装。 2. github.com/yamadashy/repo… 24.7K Star 【repomix】看星级就知道非常牛逼了,而且该工具已经获得了2025 年 JSNation 开源奖“人工智能驱动”类别的提名。那么 repomix 有什么用呢?它可以将您的整个代码库打包成一个对 AI 友好的文件,一句话总结:这是个 Vibe coding 的神器。让任何人都可以用大模型来写代码和改代码。 3. github.com/zarazhangrui/f… 4.2K Star 【follow-builders】这是个改善信息流获取效率和质量的 Skill,它能追踪 AI 领域最顶尖的大佬——研究员、创始人、产品经理和工程师——并将他们的最新动态整理成易于消化的摘要推送给你。信息就是财富,我认为这个 Skill 也是每人必装。 4. github.com/b-nnett/codex-… 1.5K Star 【codex-plusplus】是专为 Codex 桌面应用设计的插件/补丁系统。你可以一边改代码一边看到自己制作的APP的修改变化。极大的提高工作效率,让每一个代码的修改都变得可视化。 5. github.com/vibeforge1111/… 963 Star 【keep-codex-fast】顾名思义,这个Skill 是为了保持你的 Codex 运行速度和效率,不会越用越卡和越用反应越慢,而且不会丢失过往数据和信息。保持 Codex 运行的丝滑。 上面5个是大家在使用 Codex 时必装的 Skill,适合所有人使用。 我是尼卡,平时会持续分享 AI、美股、Web3 相关有用又有趣的工具和项目,感兴趣的话欢迎关注,下次见~

Cool idea from Nous Research. What if you could speed up long-context pretraining with a subquadratic wrapper that you remove before deployment? That is the idea behind Lighthouse Attention. The method wraps ordinary SDPA with a hierarchical, gradient-free selection layer that compresses and decompresses queries, keys, and values symmetrically, preserving left-to-right causality. Crucially, it can be removed near the end of training in a short recovery phase, so the deployed model still runs vanilla attention with no architectural cost at inference. Preliminary LLM experiments report faster total training time and lower final loss than full-attention baselines. Why does it matter? Most efficient-attention work either changes the deployment-time architecture or pays a quality tax to do so. A training-only wrapper that survives a clean recovery phase sidesteps both. If it scales, this becomes an important training-time speedup for long-context pretraining. Paper: arxiv.org/abs/2605.06554 Learn to build effective AI agents in our academy: academy.dair.ai










我现在是手工记忆法:新建个空项目然后补充点背景情况存成文档,比如小孩的学习情况,各科情况等,然后手工在 AGENTS.md 里做索引;再和 ai 讨论某科学习方法后,让 ai 整理落地成新文档,再补充索引,这样接下来让 ai 给小孩出一些练习题就会比较有针对性,无需每次重复输入很多背景。





