Berryxia.AI
3.7K posts

Berryxia.AI
@berryxia
🧠✨Building AI tools AI System Prompt ❤️🐳 💻 Love Design & Coding & Share Prompt! 💼📮:[email protected]

Apple 现已收购知名插件开发商 MotionVFX




I just launched /office-hours skill with gstack. Working on a new idea? GStack will help you think about it the way we do at YC. (It's only a 10% strength version of what a real YC partner can do for you, but I assure you that is quite powerful as it is.)

opencli v0.8 → v1.0 更新总结 🚀 从 v0.8 到 v1.0,opencli 经历了一次脱胎换骨的进化,63 个 commit 带来了全方位升级。 架构革命:告别 Playwright,拥抱轻量级方案 这是最大的变化——彻底移除了 @playwright/mcp 依赖,用自研的轻量级 Daemon + Chrome Extension 方案替代。新架构支持 exponential backoff 重连、CDP screenshot、extension console 日志转发,安装体验也从繁琐变成了 zero-step install。这是 v1.0.0 的核心里程碑。 平台爆发:从 Web 到桌面全面覆盖 新增了大量 adapter:小宇宙播客、Apple Podcasts、网易云音乐、微信读书(7 commands)、即梦 AI、http://linux .do(6 commands)、http://Grok. com。桌面端更是井喷——通过 CDP 支持了 ChatGPT Desktop、Cursor、Codex、Notion(14 commands)、Discord Desktop、ChatWise(9 commands);通过 AppleScript 支持了微信和飞书。小红书也新增了 4 个创作者数据分析命令和下载功能。 工程化提升 引入了 Dependabot、security audit、release-please 自动化 CI;新增 issue/PR template 和 contributing guide;commander 等核心依赖全线升级。 稳定性打磨 修复了 Twitter GraphQL 适配、小红书请求捕获、Discord channel 解析去重、cookie/header 策略域名导航等一系列问题。 从一个浏览器自动化工具,到覆盖 20+ 平台的全能 CLI 生态——opencli 1.0,正式起航 github.com/jackwener/open…

论文来了。名字叫 MSA,Memory Sparse Attention。 一句话说清楚它是什么: 让大模型原生拥有超长记忆。不是外挂检索,不是暴力扩窗口,而是把「记忆」直接长进了注意力机制里,端到端训练。 过去的方案为什么不行? RAG 的本质是「开卷考试」。模型自己不记东西,全靠现场翻笔记。翻得准不准要看检索质量,翻得快不快要看数据量。一旦信息分散在几十份文档里、需要跨文档推理,就抓瞎了。 线性注意力和 KV 缓存的本质是「压缩记忆」。记是记了,但越压越糊,长了就丢。 MSA 的思路完全不同: → 不压缩,不外挂,而是让模型学会「挑重点看」 核心是一种可扩展的稀疏注意力架构,复杂度是线性的。记忆量翻 10 倍,计算成本不会指数爆炸。 → 模型知道「这段记忆来自哪、什么时候的」 用了一种叫 document-wise RoPE 的位置编码,让模型天然理解文档边界和时间顺序。 → 碎片化的信息也能串起来推理 Memory Interleaving 机制,让模型能在散落各处的记忆片段之间做多跳推理。不是只找到一条相关记录,而是把线索串成链。 结果呢? · 从 16K 扩到 1 亿 token,精度衰减不到 9% · 4B 参数的 MSA 模型,在长上下文 benchmark 上打赢 235B 级别的顶级 RAG 系统 · 2 张 A800 就能跑 1 亿 token 推理。这不是实验室专属,这是创业公司买得起的成本。 说白了,以前的大模型是一个极度聪明但只有金鱼记忆的天才。MSA 想做的事情是,让它真正「记住」。 我们放 github 上了,算法的同学不容易,可以点颗星星支持一下。🌟👀🙏 github.com/EverMind-AI/MSA

MiMo-V2-Pro and MiMo-V2-Omni are now free in OpenCode many of you have tried them in stealth - Hunter Alpha and Healer Alpha. Mystery solved worth mentioning - MiMo-V2-Pro: - ~1T params - 1M context - optimized for coding

We’re launching a brand new, full-stack vibe coding experience in @GoogleAIStudio, made possible by integrations with the @Antigravity coding agent and @Firebase backends. This unlocks: — Full-stack multiplayer experiences: Create complex, multiplayer apps with fully-featured UIs and backends directly within AI Studio — Connection to real-world services: Build applications that connect to live data sources, databases, or payment processors and the Antigravity agent will securely store your API credentials for you — A smarter agent that works even when you don't: By maintaining a deeper understanding of your project structure and chat history, the agent can execute multi-step code edits from simpler prompts. It also remembers where you left off and completes your tasks while you’re away, so you can seamlessly resume your builds from anywhere — Configuration of database connections and authentication flows: Add Firebase integration to provision Cloud Firestore for databases and Firebase authentication for secure sign-in This demo displays what can be built in the new vibe coding experience in AI Studio. Geoseeker is a full-stack application that manages real-time multiplayer states, compass-based logic, and an external API integration with @GoogleMaps 🕹️






