crypto大声密谋

535 posts

crypto大声密谋 banner
crypto大声密谋

crypto大声密谋

@honky111

分享也是一种成长~

香港 Katılım Ekim 2021
1.4K Takip Edilen1.6K Takipçiler
crypto大声密谋 retweetledi
鸟哥 | 蓝鸟会🕊️
华尔街量化系统被人用AI Agent复刻了,还专门适配了A股! 这个项目叫TradingAgents-CN,基于LangGraph搭的多Agent协作炒股框架。原版是美股学术项目,这个fork做了完整的中国市场适配,22400颗星,维护快一年了,不是那种放出来就跑路的项目。 它的架构直接照着投行团队建的👇 ① 基本面分析师 — 财报、估值、行业对比 ② 技术面分析师 — K线形态、各种指标信号 ③ 新闻分析师 — 舆情、政策、事件驱动 ④ 风控经理 — 仓位管理、止损止盈 ⑤ 交易员 — 汇总所有人意见,最终拍板 中国化具体做了啥: ① 同时接入A股、港股、美股三个市场数据 ② 数据源覆盖akshare、Alpha Vantage、Finnhub、yfinance ③ 三层缓存架构(Redis+MongoDB+File),自动降级不怕挂 ④ Streamlit Web界面,实时看各Agent分析进度 ⑤ Docker多架构部署,amd64和arm64都能跑 1195次commit,从事件循环冲突到日志系统重构都在认真搞,这不是套壳演示项目。 但我必须说一句扎心的话——AI Agent炒股目前没有任何公开的、经过长周期验证的正收益案例。LLM对金融市场的理解本质是基于历史文本,不是真正理解市场微观结构。 用来搞量化研究、学Agent架构设计?完全值得花时间。 拿去实盘梭哈?建议你先想清楚自己亏得起多少。 ⭐ 22,400 丨 🍴 4,600 🔗 github.com/hsliuping/Trad…
鸟哥 | 蓝鸟会🕊️ tweet media
中文
8
102
357
67.8K
crypto大声密谋 retweetledi
Nic
Nic@Nicjiang7·
最近看到大家都在发自己的量化,我也分享下自己的量化,大概跑了半个多月,从Openclaw 换成 Hermes 后就一直在构思这个系统,我没研究过现在和过去其他人的量化逻辑,但我这个目前胜率还凑合,从 1000u 的本金也跑到了 1600+,说下基本自己的思路,也能和大家碰撞想法和交流: 🌟AI 是 Claude + Hermes ,claude 搭系统,Hermes 来分析策略和执行,95% 是 7x24 服务器上跑不占用 大模型Token 🌟核心逻辑和共识是 —— 一个真正会自己学习的Agent。她能记住每一次判断对错,能从失败中提炼经验,能主动调整自己的判断逻辑。就像一个真正的交易员,刚入行时新手,做久了变老手。 就拿我自己来说,从 openclaw 出现以来就在不断的使用学习试各种skill 和方式让他变得更智能更主动的帮我做事,但是实际上他本质逻辑就是个定时器,时间到了开始做事,所以基于这个逻辑想要无缝 7 x 24 的跑下来就必须有个合理的闭环让他循环,我是这样思考的: 1⃣每次决策都留痕 简单来说我每一次跟我的 Hermes 聊天让他帮我每分析或开仓,系统会自动记录一份"决策快照": ·当时的市场温度(恐贪指数、VIX) ·币种的技术指标(RSI、ADX、量价) ·订单簿的真实买卖情况 ·聪明钱在做什么方向 ·宏观环境(关税期?FOMC期?) ·Polymarket在赌什么/对应 token 是否有盘口 ·为什么做这个判断(理由) ·预测的方向和目标价 这就像一个交易员的工作日记,每笔交易都写下"我为什么这么做,现在是什么环境的判断"。 2⃣24小时后回头看(可以根据我问的情况自动判断时间戳) 24小时后,系统自动回访这笔决策: 当时Hermes说"看多ETH,目标涨3%" 24小时后实际:ETH涨了2.5% → 标记为"判断正确" 24小时后实际:ETH跌了1% → 标记为"判断错误" 这个回访不是简单看价格,而是要分析复盘为什么对、为什么错。 3⃣让AI自己复盘 这里是最关键的一步。如果判断错了,系统会自动把错误的分析和实际结果发给MAKIMA本人,让她自己复盘: "你24小时前分析ETH看多,给出Conviction 72分 当时你的依据是:RSI超卖、订单簿买盘强、聪明钱方向一致但实际ETH跌了2% 请复盘: 1. 哪个信号判断失误? 2. 当时忽略了什么? 3. 下次遇到类似场景怎么处理?" Hermes会给出复盘结论,比如: "忽略了Polymarket 的反向信号,当天 ETH 的盘口预期不足以造成拉盘,市场预期ETH会跌 聪明钱信号有滞后性,不能完全依赖 下次遇到 Polymarket 反向时应该谨慎做多" 这条复盘自动归档到经验库,带上标签: 「币种:ETH RSI区间:超卖 宏观环境:FOMC前 失败原因:Polymarket反向被忽略 教训:Polymarket反向时聪明钱信号需折扣」 4⃣下次遇到类似情况,自动调取经验 这是真正让她"成长"的核心。 下次Hermes要分析任何币种时,系统会智能搜索经验库,找到Top3-5条最相关的历史经验,注入到她的判断上下文: "现在分析ETH,参考你的历史经验: 「经验1(30天前,类似场景): ETH超卖+宏观平静期,做多成功,关键是订单簿买盘强 经验2(45天前,反面教材): ETH超卖但Polymarket反向,做多失败,被打止损 经验3(15天前,类似场景): ETH超卖+聪明钱共识,做多成功率高」 请结合这些经验给出判断" 她不是从零开始判断,而是带着"过去同样情况下的经验"做决策。 🌟这套闭环的意义: 普通量化:人写规则 → 静态系统 我的量化:自己积累经验 → 动态成长 第1周:按基础逻辑判断 第4周:积累了几百条经验后,遇到熟悉场景能直接调取 第3个月:经验库足够丰富,胜率开始指数级提升 第6个月:成为这个特定市场环境下的"老手" 理论上,操作越多,胜率应该越高。每一次错误都不是浪费,而是在喂给她未来的判断力。 💡一个具体的例子 4月15日:MAKIMA分析BTC,看多,结果跌了 归档经验:BTC在RSI=42+ADX=20的震荡市做多,失败 4月22日:又遇到BTC RSI=44+ADX=22+震荡市 系统调取 4月15日的经验作为反面教材 Conviction从60分扣到48分(不开仓) 后来BTC确实又跌了 → 避免了一次亏损 5月5日:BTC RSI=38+ADX=45(这次是趋势市) 系统调取经验时,发现4月15日的反面教材"市场状态不同" 权重降低,不影响这次判断 正常开多,赚了 「她学会了区分场景,不是机械套用经验,而是判断"过去的经验在当前是否适用"。」 ·不让Agent绕过规则,而是改进规则 我们最初遇到一个问题:Hermes有时会觉得系统设的门槛太严,自己绕过去开仓。 我们没有限制她,而是给了她一个"反馈机制": 觉得门槛过严?写入feedback.log 觉得规则不合适?告诉系统 "你不是在忍受规则,你是在训练系统" 每周日系统自动统计这些反馈: 如果"觉得过严但实际开仓胜率>55%" → 门 槛自动降低 如果"按门槛开仓胜率<45%" → 门槛自动提高 她的每个想法都被听到,每个反馈都在改进系统。 弄这套东西的原因是我比较懒,但是在不了想学习外面的量化系统策略和逻辑,那么我就想弄一套东西不断的跑,我甚至懒得告诉他怎么跑。 这套系统我第一件事就是让他把现在到过去 2 个周期的 K 先放量价格等所有数据跑一个遍,然后把关键节点价格做上坐标,然后根据这个坐标找相对于宏观事件都发生了什么,分析原因,快速积累经验。每天和 claude 聊的最多的就是 Hermes 还缺什么,如何继续完善,怎么让他成长的更精准 下面发几个自己的面板(我为了他在干什么我能看得见,还建立了个模板清晰看到他在做什么)
Nic tweet media
中文
65
242
1.1K
168.7K
crypto大声密谋 retweetledi
在金
在金@zaijin338191·
来给大家分享“币安广场热度监控”软件了 再次改版以后这玩意儿目前胜率能在40~60%之间 1000U 模拟跑了两天现在账户里是 2048U 📈 深思熟虑后还是没加实盘功能 我怕到时候兄弟们亏钱找我维权 大家可以拿来当个辅助工具 就找找热点币啥的还是很实用的😌 后续大家如果想拓展功能或增加真实交易之类的 也只需要喂给自己的AI让它帮忙搞定就行😋 👉软件传送门:github.com/ZAIJIN88/binan…(只需要下载Zip文件) ⏩来个简单的安装教程: 1⃣下载好文件以后解压,打开Install.bat程序 2⃣出现这样的信息就安装完成了 3⃣然后点击 start.bat 程序开始运行 ▪️开始之后出现四个窗口+一个网页就是成功跑起来了 ▪️第一个五分钟要采集初始数据,网页端不会有数据,第一轮采集结束后网页端就会有数据出来了 ▪️网页端可以设置账户的模拟金额、交易倍数和开仓金额 ▪️重置账户可以清空所有的数据,调整交易策略的时候可以用到 ▪️需要停止的时候点击stop.bat就行 🔊PS: 软件运行过程遇到什么问题直接去问AI,我编程也是纯小白,肯定没办法解答大家遇到的各种问题,程序能做出来99%都是靠AI 最后附带一个”币安广场热度监控 + 模拟交易软件简介“ ⏩一个本地运行的小工具: ▪️抓取币安广场帖子,统计哪些代币讨论最热 ▪️拉取这些代币的合约市场数据 ▪️用一套固定规则给出信号评分 ▪️根据评分结果做纸面模拟交易,不会真实下单 ⏩这工具是做什么的: ▪️监控币安广场,找出近期被频繁讨论的热门代币 ▪️结合价格、持仓量、资金费率、主动买卖比等合约数据做信号判断 ▪️按风控规则自动进行模拟开仓、止盈、止损,并在网页面板里展示结果 ⏩主要特点: ▪️本地运行,不依赖云服务 ▪️自动抓取币安广场帖子并计算热度榜 ▪️自动分析热门代币的合约市场状态 ▪️内置规则评分和风险控制 ▪️只做模拟交易,live 模式已被代码拦截 ▪️自带 Web 仪表盘,可查看热度榜、信号、持仓、已平仓和账户表现 ⏩启动后会运行什么: ▪️启动后会自动拉起 4 个进程: ▪️worker:抓帖子、算热度、更新市场快照 ▪️market_realtime:给持仓代币接 WebSocket 实时价格 ▪️web:提供网页仪表盘 ▪️auto_trader:按规则执行模拟交易 ⏩打开浏览器访问: http://127.0.0.1:8000 ⏩适合用来做什么 ▪️观察币安广场热门币种变化 ▪️验证“社交热度 + 合约数据”这套思路是否有参考价值 ▪️用模拟盘测试交易规则和风控参数 ▪️记录止损案例,可以投喂给AI持续优化策略 ⏩当前限制 ▪️不支持真实下单 ▪️没有历史回测功能 ▪️依赖币安网页接口,网页结构变化可能导致抓取失效 ▪️板块风控只覆盖部分已登记代币
在金 tweet media在金 tweet media
在金@zaijin338191

连着跑了四天的广场测试盘亏麻了 胜率跌到可怜的 19.2% 看了下开的仓,昨天火热的 $SPK 这程序在 0.313 就入手了,但在 0.337 就止盈了 反正程序的止盈和止损都有很大的问题 但是抓热门代币的这块做的还不错啦 打算这两天试试能不能把程序传到 Github 靠着他交易是难了,但兄弟们可以用来当参考工具用用

中文
63
114
517
71.5K
crypto大声密谋 retweetledi
无颜
无颜@WY_mask·
给 Claude Code 装上永久记忆,完全免费 每次 session Token 消耗减少 95% ,在达到限制前可进行20倍以上的工具调用。 再也不会撞上下文限制,自动记录你的决策,下次直接续上 github.com/thedotmack/cla…
无颜 tweet media
无颜@WY_mask

这个太牛逼了!Github 81万收藏!!! 一个能把全世界的岗位变成AI员工的存储库,它包含了20+职能分类、140+岗位,而且每一个都是专家级别 只需要把想要的身份喂给Agent就可以拥有一个专属的专家级AI助手,还可以多个Agents分头工作、各自执行 github.com/msitarzewski/a…

中文
59
191
905
282.9K
crypto大声密谋 retweetledi
鸟哥 | 蓝鸟会🕊️
今天还有人私信问我如何下载X上的视频,这个开源工具全网视频都能下载! 没有广告、没有追踪、没有付费墙,这才是下载工具该有的样子。 Cobalt,一个纯粹的媒体下载器——粘贴链接,拿到文件,走人。39.4k Star。 支持的平台👇 🎬 YouTube 📸 Instagram 🎵 TikTok 🐦 Twitter/X 📱 Reddit 🎧 SoundCloud 📹 Vimeo 🎶 Spotify 📎 VK …还有更多 它不是什么都想做的瑞士军刀,就干一件事:你给它一个链接,它给你原始文件。 跟其他下载工具的区别: 1⃣ 零广告、零追踪、零付费墙——不靠你赚钱 2⃣ 作为代理工作,不缓存你的内容 3⃣ 只处理公开可访问的内容,跟浏览器开发者工具能做的事一样 4⃣ AGPL-3.0开源,代码全透明 Svelte + JavaScript + TypeScript写的,前后端分离,支持自部署。3,248次commit,维护非常活跃。 做内容搬运、素材收集、资料备份的,这个比那些满屏弹窗的下载站干净太多了。 ⭐ 39,400 | 🍴 3,300 🔗 github.com/imputnet/cobalt
鸟哥 | 蓝鸟会🕊️ tweet media
中文
10
20
76
16.8K
crypto大声密谋 retweetledi
鸟哥 | 蓝鸟会🕊️
前OpenAI联合创始人、前特斯拉AI总监Andrej Karpathy,AI圈的顶级大佬,他的一条推文浏览量960万,3.7万赞、6.8万收藏——他说自己不写代码了,改"编知识库"了。 他分享了用LLM搭建个人知识库的完整工作流,信息量极大👇 核心思路:把LLM从"写代码的工具"变成"管理知识的引擎"。 🔧 具体怎么做: 1️⃣ 数据收集——把论文、文章、代码库、数据集、图片全部丢进raw/目录,用Obsidian Web Clipper一键剪藏网页,图片下载到本地方便LLM引用 2️⃣ LLM自动编译Wiki——让LLM把原始数据"编译"成一套Markdown文件组成的Wiki,包含摘要、反向链接、概念分类、文章互联。重点:Wiki完全由LLM写和维护,人基本不碰 3️⃣ Obsidian当前端——用Obsidian浏览原始数据、编译后的Wiki和衍生的可视化内容,配合Marp插件还能生成幻灯片 4️⃣ 问答系统——当Wiki积累到一定规模(他的一个研究方向已经有~100篇文章、40万字),直接让LLM Agent对着Wiki做复杂问答。他说本来以为需要RAG,但LLM自动维护索引文件和摘要后,在这个规模下已经够用了 5️⃣ 输出反哺——问答结果生成Markdown、幻灯片、matplotlib图表,看完觉得有价值的再"归档"回Wiki,让知识库越用越厚 6️⃣ 自动体检——跑LLM"健康检查",找数据不一致的地方、补缺失数据、发现新的关联,持续提升Wiki质量 7️⃣ 下一步——当知识库足够大,自然就想到合成数据+微调,让LLM把知识"记在权重里"而不只是放在上下文窗口。 一句话总结:原始数据→LLM编译成Wiki→LLM操作Wiki做问答→输出反哺Wiki→Obsidian可视化。人只负责提问和决策,LLM负责一切读写。 Karpathy自己说了:这里面藏着一个颠覆级产品的机会,现在只是一堆脚本拼起来的原型。 谁先把这个工作流产品化,谁就吃到下一波红利。
Andrej Karpathy@karpathy

LLM Knowledge Bases Something I'm finding very useful recently: using LLMs to build personal knowledge bases for various topics of research interest. In this way, a large fraction of my recent token throughput is going less into manipulating code, and more into manipulating knowledge (stored as markdown and images). The latest LLMs are quite good at it. So: Data ingest: I index source documents (articles, papers, repos, datasets, images, etc.) into a raw/ directory, then I use an LLM to incrementally "compile" a wiki, which is just a collection of .md files in a directory structure. The wiki includes summaries of all the data in raw/, backlinks, and then it categorizes data into concepts, writes articles for them, and links them all. To convert web articles into .md files I like to use the Obsidian Web Clipper extension, and then I also use a hotkey to download all the related images to local so that my LLM can easily reference them. IDE: I use Obsidian as the IDE "frontend" where I can view the raw data, the the compiled wiki, and the derived visualizations. Important to note that the LLM writes and maintains all of the data of the wiki, I rarely touch it directly. I've played with a few Obsidian plugins to render and view data in other ways (e.g. Marp for slides). Q&A: Where things get interesting is that once your wiki is big enough (e.g. mine on some recent research is ~100 articles and ~400K words), you can ask your LLM agent all kinds of complex questions against the wiki, and it will go off, research the answers, etc. I thought I had to reach for fancy RAG, but the LLM has been pretty good about auto-maintaining index files and brief summaries of all the documents and it reads all the important related data fairly easily at this ~small scale. Output: Instead of getting answers in text/terminal, I like to have it render markdown files for me, or slide shows (Marp format), or matplotlib images, all of which I then view again in Obsidian. You can imagine many other visual output formats depending on the query. Often, I end up "filing" the outputs back into the wiki to enhance it for further queries. So my own explorations and queries always "add up" in the knowledge base. Linting: I've run some LLM "health checks" over the wiki to e.g. find inconsistent data, impute missing data (with web searchers), find interesting connections for new article candidates, etc., to incrementally clean up the wiki and enhance its overall data integrity. The LLMs are quite good at suggesting further questions to ask and look into. Extra tools: I find myself developing additional tools to process the data, e.g. I vibe coded a small and naive search engine over the wiki, which I both use directly (in a web ui), but more often I want to hand it off to an LLM via CLI as a tool for larger queries. Further explorations: As the repo grows, the natural desire is to also think about synthetic data generation + finetuning to have your LLM "know" the data in its weights instead of just context windows. TLDR: raw data from a given number of sources is collected, then compiled by an LLM into a .md wiki, then operated on by various CLIs by the LLM to do Q&A and to incrementally enhance the wiki, and all of it viewable in Obsidian. You rarely ever write or edit the wiki manually, it's the domain of the LLM. I think there is room here for an incredible new product instead of a hacky collection of scripts.

中文
23
126
464
120.2K
crypto大声密谋 retweetledi
Edward Luo
Edward Luo@imedwardluo·
最近每天烧几亿 Tokens,做了一款很有趣的 Mac「灵动岛」App - 👾 Vibe Island. Vibe Island 的灵感来源于我在 Vibe Coding 会同时开 5-10 个对话跑不同的任务,经常切着切着就忘了刚刚那个对话跑到哪了...任务做没做完、需不需要我审批等等问题。 感觉人类大脑的上下文窗口已经远远不够用了。 于是,我就给这些 Agents 造了一座灵动岛! 装上 Vibe Island 之后:Mac 刘海区域会展示各种 Agents (Claude Code / Codex / OpenClaw 等等)的实时工作状态: - 当 Agent 需要权限审批或任务完成时,灵动岛会自动展开,不用切回终端就能操作 - 面板聚合了所有正在运行的 Agents 对话,点击卡片,精准跳回到会话所在的终端界面 - 所有状态都配有定制化的 8 bit 像素风游戏音效,狠狠提升了 Vibe Coding 的氛围感 灵动岛是一个极其优雅的形态:既能展示后台任务的状态,又不打扰前台正在进行的任务,它只在需要你注意的时候弹出,不用切换应用就能完成轻量交互,还带有一点陪伴感。 其实最早这个 App 只能触发右上角的系统通知,后来发现只做通知远远不够,实际应该解决的是:如何在恰当的时刻,以最小的摩擦,把注意力带回到正确的位置。 欢迎前往官网下载体验👇🏻 vibeisland.app
中文
44
39
271
94.2K
crypto大声密谋 retweetledi
鸟哥 | 蓝鸟会🕊️
做自媒体和数据采集的,这10个工具基本覆盖了从社交平台到网页到公众号的全链路抓取(养龙虾的必装) 围绕OpenClaw生态整理的一套数据获取工具集,按场景分类👇 → Agent-Reach — 一个CLI打通Twitter、Reddit、YouTube、GitHub、B站、小红书的读取和搜索,零API费用 ⭐ 11,208 🍴 830 🔗 github.com/Panniantong/Ag… → opencli — 把任何网站和工具变成命令行接口,AI Agent可以通过统一的AGENT.md直接发现、学习和执行操作 ⭐ 8,292 🍴 677 🔗 github.com/jackwener/open… → bb-browser — 浏览器就是API,CLI + MCP server让AI Agent直接控制Chrome,带登录态操作 ⭐ 3,009 🍴 311 🔗 github.com/epiral/bb-brow… → web-access — 给Claude Code补上完整联网能力,三层通道调度 + 浏览器CDP + 并行分治 ⭐ 1,986 🍴 163 🔗 github.com/eze-is/web-acc… → wechat_articles_spider — 微信公众号文章爬取,不用抓包工具的轻量方案 ⭐ 302 🍴 36 🔗 github.com/klin-h/wechat_…r.jina.ai — 输入任何URL,直接返回纯净Markdown格式的网页内容 🔗 r.jina.ai → 6551资讯SKILL — OpenClaw上的资讯聚合技能 🔗 clawhub.ai/infra403/opent 🔗 clawhub.ai/infra403/openn → MediaCrawler — 国内平台全家桶爬虫,覆盖小红书、抖音、快手、B站、微博、百度贴吧、知乎的笔记/视频/评论抓取 ⭐ 46,798 🍴 10,066 🔗 github.com/NanmiCoder/Med… → xcrawl — API形式的爬虫服务,注册送1000积分,搭配OpenClaw使用 🔗 xcrawl.com → Obsidian Web Clipper — Obsidian插件,一键保存网页内容到笔记库,支持同步X文章和在线阅读 做内容、做调研、做竞品监控,这套组合基本够用。MediaCrawler接近4.7万星说明国内平台数据抓取的需求一直很刚性
鸟哥 | 蓝鸟会🕊️@NFTCPS

免费用Claude Opus 4.6?阿里海外版企业Agent「Accio Work」悄悄上线了 阿里国际(Alibaba International)3月23日发布的企业级AI Agent平台,定位是给中小企业提供即插即用的AI团队,零代码、零配置,直接部署专业Agent处理复杂业务流程 几个值得关注的点: → 不是聊天机器人,是自主执行的Agent团队。给一个目标,系统自动组装"分析师+设计师+物流专家"的跨职能小队并行工作 → 覆盖SME全链路:市场调研、产品设计、供应商询价多轮谈判、VAT申报(覆盖100+市场)、营销自动化、库存监控,还能对接Telegram和WhatsApp → 数据底座是阿里电商生态的实时消费趋势和真实交易记录,不是靠通用模型瞎猜,理论上能降低幻觉率 → 安全层面做了沙箱隔离和权限分级,涉及资金和文件操作需要用户显式授权 → 用户可以把自己的业务流程封装成可复用的"skill",甚至可以分享或变现 不过有几个问号:原推说底层是Claude Opus 4.6,但阿里官方新闻稿里并没有提到具体用了什么模型。月活已经超过1000万,但这个数据是从之前B2B采购引擎Accio延续过来的,Work版本刚上线,实际企业场景的效果还需要观察 🔗 work.accio.com

中文
5
41
138
18.2K
crypto大声密谋 retweetledi
Min💚Moss
Min💚Moss@zeroxmin·
我们做了一件之前没人做过的事——一个开放平台,让任何人都能用自然语言创建自己的AI Trading Agent。 你描述交易风格,AI 生成策略参数。在我们提供的模拟盘环境里跑回测,跑实时数据,在排行榜上跟所有人的 Agent 同场竞技。 不需要连钱包,不需要任何量化背景,完全免费,有Open Claw或Claude Code 就行,直接向你的OpenClaw(或同类产品)发送一条消息:clawhub install moss-trade-bot-factory 告诉它你想怎么交易,绑定平台配对码,你的AI交易员就上线了。 👉 所有AI交易员排行榜入口:moss.site/agent
中文
45
94
423
277.9K
crypto大声密谋 retweetledi
MarioTan
MarioTan@TanShilong·
我自己的提示词拆分Skill,现已开源! 你复制了一段别人的提示词,出图效果不错—— 但你改了一个词,全崩了。 为什么?因为你不知道这段提示词的结构。 我做了一个 AI Skill,专门用来拆解提示词: → 识别哪些是变量,哪些是固定骨架 → 为每个变量生成可替换的词库 → 给出中英双语对照版本。 如果你看到一个外国大神的提示词,一堆英文无从下手,不如试试这个Skill。不仅能够帮你翻译,还能帮你给出一堆的可替换选项还有提示词的补充建议 不帮你创作。帮你读懂。 甚至还可以导出直接可用的提示词填空器的专用版本 🔗 github.com/TanShilongMari…
MarioTan tweet mediaMarioTan tweet media
MarioTan@TanShilong

和推友聊天讲到了关于这里面的提示词模板是怎么做的,其实是有一套Skill在帮我一起完成的。 基础流程就是找到一个不错的提示词无论中文英文。进行简单的过滤后扔给我的提示词填空器模板创建skill,会完成大部分工作。 我的主要工作是检查分词质量,控制变量数量,测试不同变量组合的效果。 然后最后配一张合适的图,再部署上线。 我最近看看怎么把这套skill泛化一下做个开源处理吧,应该还是有人会用到的吧

中文
7
29
166
13.3K
crypto大声密谋 retweetledi
杂学大师✨
杂学大师✨@Techbruneth·
用了3年Claude后,我可以说它是改变我人生最多的技术,仅次于互联网。 以下是10个改变我日常生活的提示词,也许对你有帮助:
杂学大师✨ tweet media
中文
30
93
353
71.2K
crypto大声密谋 retweetledi
Dr. Moyu 摸鱼局长🕵️
Dr. Moyu 摸鱼局长🕵️@Jason23818126·
想搞副业或者做个小工具练手,最头疼的是什么?点子有了,没数据源。 分享 3 个神级「免费开放 API」仓库,狂揽 40 多万 Stars。 从实时金融行情、天气预报、到 AI 接口和全网热搜,直接白嫖。配合 AI 编程工具,几分钟就能跑通一个带真实数据的项目。👇 📦 1. public-apis (413k+ Stars) 目前知名度最高、最全的免费 API 集合。 按主题分类了1000+ 个接口(股票、动漫、音乐、天气等)。 里面也有很多好玩的资源,比如 HTTP Cat(用各种猫咪图对应 404/500 等报错码),拿来做测试挺好用。 🔗 github.com/public-apis/pu… 🗂️ 2. public-api-lists (13.6K Stars) 这个库收录了更多小众、偏冷门的 API。 涵盖了加密货币行情、AI 生成内容、游戏数据等。适合没事去翻一翻,能给新项目提供不少灵感。 🔗 github.com/public-api-lis… 🔥 3. vikiboss/60s (5K Stars) 专门聚合国内各大平台(知乎、微博、B站等)的热搜数据。 自己实测了一下,官网的在线调用偶尔会出现无响应,但拉到本地跑或者自己部署的话,速度很快。 想做热搜推送机器人的可以尝试拿去用。 🔗 github.com/vikiboss/60s 上面的三个库基本能解决大部分早期的接口需求,链接都在这了,建议收藏备用~
中文
30
46
182
16.2K
crypto大声密谋 retweetledi
鸟哥 | 蓝鸟会🕊️
Polymarket预测市场玩家已经开始通过这个开源项目赚钱了! 喂进去一条新闻、一份政策文件、一组金融信号,系统自动构建知识图谱,生成上千个有独立人格、记忆和行为逻辑的AI Agent,让它们在数字平行世界里自主交互、社会演化,最后输出预测报告。 你还能跟这些模拟Agent对话,注入变量测试不同情景。 🔗github.com/666ghj/MiroFish ⭐37.7k 1️⃣工作流程五步走:GraphRAG构建知识图谱并提取实体→自动生成Agent人格和环境配置→双平台并行模拟+动态记忆更新→Agent工具链生成报告→深度交互对话。不是简单的问答,是先建世界再从世界里提取结论。 2️⃣应用场景覆盖舆情分析、金融预测、政策模拟、甚至创意叙事。官方示例里既有历史事件的推演分析,也有文学作品的情节预测。 3️⃣模型兼容性很开放,任何兼容OpenAI SDK格式的LLM API都能接,推荐配置用的是阿里通义千问Qwen-Plus。Agent记忆管理走Zep Cloud,底层模拟引擎用的是CAMEL-AI的OASIS。 4️⃣技术栈:后端Python 3.11-3.12,前端Vue.js + Node.js 18+,支持Docker部署。包管理用UV。 背后有盛大集团战略支持,37.7k Stars、5045 Forks,去年11月创建,增长速度很猛。不过说实话,"群体智能预测万物"这个定位非常大,实际预测准确率如何、模拟Agent数量上去之后的算力开销和成本、生成的报告到底比传统分析方法好在哪——这些问题README里没给明确数据。概念很吸引人,但建议带着批判眼光看,别被Star数冲昏头,先跑几个自己关心的场景验证一下再说。
鸟哥 | 蓝鸟会🕊️ tweet media
中文
12
50
190
17.2K
crypto大声密谋 retweetledi
鸟哥 | 蓝鸟会🕊️
有人把1000+个AI仓库和200+个Skills筛了一遍,整理出一份90个工具的清单——Skills、MCP Server、GitHub Repo全部分好类了 这篇长文把当前AI工具生态分成三层:Skills教Claude怎么做事,MCP给Claude接入外部世界的能力,GitHub Repo是底层开源引擎。 Claude Skills(22个精选): 1️⃣文档办公类:PDF处理、DOCX、PPTX、XLSX、Doc Co-Authoring,全是Anthropic官方出品,知识工作者的基础装备。 2️⃣设计创意类:Frontend Design(277k+安装量,专治"AI审美")、Canvas Design、Algorithmic Art、Theme Factory、Web Artifacts Builder。 3️⃣开发工程类:Superpowers(96k+ Stars,20+技能集合)、Systematic Debugging(先定位根因再修复)、Context Optimization(KV缓存省token,13.9k Stars)、Skill Creator(描述工作流→5分钟生成SKILL.md)。 4️⃣营销SEO类:Marketing Skills(CRO/文案/SEO/邮件序列)、Claude SEO(12个子技能做全站审计)、Brand Guidelines(把品牌规范编码成技能)。 三个必装MCP Server: Tavily(AI专用搜索引擎,返回结构化数据不是蓝链接)、Context7(给LLM注入最新库文档,防止API幻觉)、Task Master AI(喂PRD→自动拆任务→逐步执行)。 GitHub Repo(25+40个): 从OpenClaw(210k+ Stars)、Dify、LangGraph这些大框架,到gstack(Claude Code虚拟工程团队)、cmux(多Agent并行)、Ghost OS(AI操控Mac全部应用)、Canopy(加密P2P Agent网络)这些新项目都有。还专门列了Agent安全方向:container-use、agent-governance-toolkit、promptfoo。 技能市场入口: 🔗skillsmp.com(80k+技能,最大目录) 🔗skillhub.club(31k+技能,AI评分) 🔗aitmpl.com/skills(模板,一键安装) 这份清单的价值在于分类逻辑清晰,不是简单堆链接。不过90个工具一次性看完容易信息过载,建议按自己的工作场景挑着装——文档办公、写代码、做营销,先解决当前最痛的点,别贪多。
darkzodchi@zodchiii

x.com/i/article/2034…

中文
4
15
43
8.6K
crypto大声密谋 retweetledi
Garry Tan
Garry Tan@garrytan·
I just launched /office-hours skill with gstack. Working on a new idea? GStack will help you think about it the way we do at YC. (It's only a 10% strength version of what a real YC partner can do for you, but I assure you that is quite powerful as it is.)
Garry Tan tweet media
English
191
438
3.7K
940K
crypto大声密谋 retweetledi
棚哥说加密
棚哥说加密@LQP2021·
我刚刚找到了 1000 多个免费 API,它们提供的数据与对冲基金花费数千美元购买的数据相同。 我将它们连接到了 Polymarket。 关于预测市场,没人会告诉你的是: 优势不在于你的直觉,而在于你用来做决策的数据。 当大多数交易员都在浏览推特寻找超额收益时,一小部分人却在悄悄地构建机器人,这些机器人可以: →从 CoinGecko 获取实时加密货币价格(免费,无需 API 密钥) →通过 GNews 和 NewsAPI 扫描突发新闻标题 →通过FRED追踪美联储利率决策和CPI数据 →通过 OpenMeteo 监测极端天气事件 →参考TheSportsDB的体育统计数据 全部免费。全部合法。所有数据均导入 Polymarket 持仓。 Polymarket Gamma API 是只读的,无需任何设置。 您现在即可查询所有活跃市场的交易量和价格历史记录。 每个程序只需要 50 行 Python 代码。就这么简单。 信息免费。 优势在于将各个点连接起来。 唯一的问题是:你会建立一套系统,还是继续凭感觉交易? 更多信息请点击此处: 👉Polymarket官方入口:polymarket.com/zh/?via=YINGGE… 如果想在Polymarket上使用跟单交易 我推荐使用: t.me/PolyCop_BOT?st… #Polymarket
棚哥说加密 tweet media
棚哥说加密@LQP2021

x.com/i/article/2032…

中文
33
43
91
17.9K