

鸟哥 | 蓝鸟会🕊️
17.9K posts

@NFTCPS
#蓝鸟会 发起人 | TG:ximalaya 近3亿用户的共同选择,启程Web3,就在币安: https://t.co/UYlKZu8n8i | OKX Web3钱包现已支持100+公链,web3入口一个就够 https://t.co/llFZwLMjOZ




运维党看这里,以后不用开七八个窗口了! 有个叫 syswatch 的工具,Rust 写的,一个终端界面干掉 htop、iostat、nettop 全家桶。 重点来了: 1⃣ 12个标签页,CPU/内存/磁盘/GPU/网络/电源/服务一网打尽,macOS和Linux都能跑 2⃣ Insights页会自己盯着你的机器,swap抖动、僵尸进程、磁盘快满——自动报警还用大白话解释 3⃣ Timeline页可以拖时间轴,想回看五分钟前机器什么状态,直接拉 4⃣ 只读模式,不杀进程不动配置,自身CPU占用压在0.5%以下,几乎无感 这种工具不收藏等什么? 🔗 github.com/matthart1983/s…


兄弟们,搞AI出图还在瞎猜提示词? 有个宝藏库直接给你整明白了——Prompt as Code,专门收录 GPT-Image-2 提示词案例,目前已经跑到 374 个了。 覆盖范围贼广: ① UI界面 ② 信息图 ③ 海报排版 ④ 电商商品 ⑤ 品牌标志 ⑥ 建筑空间 ⑦ 摄影写实 ⑧ 插画艺术 等13个类别全齐了。 最关键的是——可复用、可组合、能接进自动化流程,出图不靠运气靠体系,这才是正经玩法。 🔗 github.com/freestylefly/a…


金融版Claude Code来了,这玩意儿有点东西! Dexter——专门为深度金融研究打造的自主AI Agent,不是那种问一句答一句的废物工具,它能像真人分析师一样自己思考、规划、学习。 几个核心能力: 1️⃣ 自动跑金融研究和分析 2️⃣ 实时抓取处理市场数据 3️⃣ 多步骤推理自主决策 4️⃣ 结果还能自我验证优化 我去先试了,感兴趣的自己冲👇 🔗 github.com/virattt/dexter


做教育App的注意了,这个东西可能要颠覆你的技术选型 一直以来移动端渲染数学公式这件事,WebView就是那根永远绕不过去的刺。你加载一条公式,背后跟着的是整套浏览器内核,内存哗哗地吃,启动龟速,用户体验烂得你自己都不好意思说。 然后我看到了 RaTeX。 这玩意儿用纯 Rust 从零写的公式渲染引擎,直接把 JavaScript 和 WebView 整个从链路里踢飞,不是优化,是直接干掉。 一套核心代码能覆盖七个平台: ① iOS ② Android ③ Flutter ④ React Native ⑤ Web ⑥ PNG ⑦ SVG 全原生渲染,零 JS 依赖,完全离线跑,不需要联网加载任何东西。 功能上也没偷懒: ① 语法对 KaTeX 兼容度约 99%,你原来的公式基本照搬 ② 分数、根号、积分、矩阵这些常用表达都稳 ③ 顺带支持化学方程式和物理单位书写 ④ 理工科场景基本全覆盖 说白了就是:又快、又轻、又能跨端、还不依赖任何 Web 技术栈。 你做教育、学术类 App,现在还在用 WebView 那套又重又慢的方案,纯粹是在给自己挖坑。 这个值得认真看一眼,不是那种PPT项目。 🔗 github.com/erweixin/RaTeX


随便扔个网址进去,人家网站的底裤直接给你扒光—— ① DNS记录全暴露 ② 服务器架构一览无余 ③ 完整技术栈原形毕露 ④ 开放端口、历史存档统统拉满 程序员、安全研究员、想偷偷研究竞品的,这就是你的秘密武器。 用一次就废了,再也回不去那个啥都看不透的时代 😭 🔗 web-check.xyz







画个流程图要花半小时?这个工具直接把你解放了 每次写技术文档、梳理业务逻辑,都绕不开流程图、架构图这些东西。但你有没有发现——光是"画图"这件事本身,就能把人搞崩?对齐、连线、排版,反复调,最后图没画好,时间先没了。 现在有个开源工具叫 Smart Excalidraw,直接把"画图"变成"说话"。 你用自然语言描述一下需求,它自动给你生成专业级图表,而且: ① 内置智能箭头和布局优化,连线不交叉、排版不乱,生成出来就能看 ② 支持流程图、架构图、时序图、思维导图等 20 多种图表类型,基本覆盖你日常所有场景 ③ 和 Excalidraw 深度集成,生成完不满意?可以继续手动微调样式细节,不是一锤子买卖 ④ 数据只存本地浏览器,不上传服务器,隐私这块不用担心 上手也简单,有在线演示版,配一个 AI API 密钥就能跑。官方推荐用 Claude Sonnet 4.5,也支持本地部署,自己搭一套完全没问题。 真的,那种花一小时调图还调不好的痛苦,这东西能给你省掉大半。 🔗 github.com/liujuntao123/s…




用苹果电脑跑本地大模型的人注意了,有个东西你们可能还不知道 Rapid-MLX,一个专门为 Apple Silicon 打造的本地 LLM 推理服务,核心就一句话——比 Ollama 快,而且快不少。 具体快多少?官方数据是 2-4 倍。背后用的是苹果自家的 MLX 框架,不是什么民间魔改,是真正吃透了 M 系列芯片架构的方案。 快在哪几个点: 1️⃣ KV 缓存裁剪加上 DeltaNet 状态快照,多轮对话的首 token 延迟压到了 0.08 秒左右,你懂这意味着什么,对话几乎感觉不到等待 2️⃣ 工具调用做了 17 种解析器,Qwen、DeepSeek、Gemma、GLM 这些主流模型直接自动识别格式,量化把输出搞坏了也能自动修回来,这个细节做得很扎实 3️⃣ OpenAI 兼容 API,Cursor、Claude Code、Aider、LangChain 统统能直接接,基本上你现在用什么工具链,切过来不用改代码 还有一些额外的东西:推理链分离、云端路由、视觉和音频多模态支持、V 缓存压缩,功能密度挺高的。 说白了就是,你有一台 M 系列 Mac,想在本地跑模型又嫌 Ollama 慢,那 Rapid-MLX 现在是最值得试的选项之一。 🔗 github.com/raullenchai/Ra…













兄弟们,这个网站我必须给你们安利! YouMind 提示词库,20,000+ 精选词直接免费用,图像/视频/网页全覆盖,GPT Image、Gemini、Grok 这些最新模型天天追踪更新,一键复制就能出神级效果。 以前对着空白框发呆的日子彻底结束了! 用完就上瘾,真的回不去了 😭 🔗 youmind.com/zh-CN/prompts



