lalaland

941 posts

lalaland

lalaland

@InnerHack

test....

Katılım Temmuz 2011
276 Takip Edilen49 Takipçiler
lalaland
lalaland@InnerHack·
@akazwz_ 可能 astro team 开发发力了。不过我没有看是不是 astro 写的
中文
1
0
1
16
akazwz
akazwz@akazwz_·
cloudflare 的 dashboard 变清爽了,不错。
中文
2
0
5
484
lalaland
lalaland@InnerHack·
@dotey @Michaelzsguo 啊,这个观点我不认可。我 js 写的是一坨屎,chrome 还能拒绝运行了?
中文
0
0
0
135
宝玉
宝玉@dotey·
小米 MiMo 团队负责人罗福莉: 全球算力跟不上 Agent 时代的 Token 消耗,出路不是更便宜的 Token,而是更省 Token 的框架和更高效的模型共同进化。 一个技术细节: OpenClaw 的上下文管理做得非常糟糕。一个用户请求会触发多轮低价值的工具调用,每次都带着超过 10 万 Token 的长上下文窗口,实际请求次数是 Claude Code 自身框架的好几倍。换算成 API 价格,真实成本可能是订阅价的几十倍。 罗福莉提了两个观点: 第一,短期阵痛反而是好事。第三方框架被迫走 API 付费后,成本压力会倒逼它们改进上下文管理、提高 prompt 缓存命中率、减少无效 Token 消耗。 第二,呼吁其他大模型公司不要在没想清楚定价模型之前盲目打价格战。低价卖 Token 的同时对第三方框架大开门户,看着对用户友好,实际是个陷阱,Anthropic 刚从这个坑里爬出来。
Fuli Luo@_LuoFuli

Two days ago, Anthropic cut off third-party harnesses from using Claude subscriptions — not surprising. Three days ago, MiMo launched its Token Plan — a design I spent real time on, and what I believe is a serious attempt at getting compute allocation and agent harness development right. Putting these two things together, some thoughts: 1. Claude Code's subscription is a beautifully designed system for balanced compute allocation. My guess — it doesn't make money, possibly bleeds it, unless their API margins are 10-20x, which I doubt. I can't rigorously calculate the losses from third-party harnesses plugging in, but I've looked at OpenClaw's context management up close — it's bad. Within a single user query, it fires off rounds of low-value tool calls as separate API requests, each carrying a long context window (often >100K tokens) — wasteful even with cache hits, and in extreme cases driving up cache miss rates for other queries. The actual request count per query ends up several times higher than Claude Code's own framework. Translated to API pricing, the real cost is probably tens of times the subscription price. That's not a gap — that's a crater. 2. Third-party harnesses like OpenClaw/OpenCode can still call Claude via API — they just can't ride on subscriptions anymore. Short term, these agent users will feel the pain, costs jumping easily tens of times. But that pressure is exactly what pushes these harnesses to improve context management, maximize prompt cache hit rates to reuse processed context, cut wasteful token burn. Pain eventually converts to engineering discipline. 3. I'd urge LLM companies not to blindly race to the bottom on pricing before figuring out how to price a coding plan without hemorrhaging money. Selling tokens dirt cheap while leaving the door wide open to third-party harnesses looks nice to users, but it's a trap — the same trap Anthropic just walked out of. The deeper problem: if users burn their attention on low-quality agent harnesses, highly unstable and slow inference services, and models downgraded to cut costs, only to find they still can't get anything done — that's not a healthy cycle for user experience or retention. 4. On MiMo Token Plan — it supports third-party harnesses, billed by token quota, same logic as Claude's newly launched extra usage packages. Because what we're going for is long-term stable delivery of high-quality models and services — not getting you to impulse-pay and then abandon ship. The bigger picture: global compute capacity can't keep up with the token demand agents are creating. The real way forward isn't cheaper tokens — it's co-evolution. "More token-efficient agent harnesses" × "more powerful and efficient models." Anthropic's move, whether they intended it or not, is pushing the entire ecosystem — open source and closed source alike — in that direction. That's probably a good thing. The Agent era doesn't belong to whoever burns the most compute. It belongs to whoever uses it wisely.

中文
78
70
681
292.4K
独钓蓑笠翁
独钓蓑笠翁@vincenter111·
@evilcos 早上升级Openclaw 3.28 版本已经中招: • axios@1.14.1 位于全局路径:~/.npm-global/lib/node_modules/openclaw/node_modules/axios (被 OpenClaw 的内部依赖使用)。 • 未在全局 npm 或当前工作区中找到 axios@0.30.4。
中文
4
2
24
123.1K
Cos(余弦)😶‍🌫️
麻了,又又又一个知名模块 axios 被投毒,带毒版本 axios@1.14.1 与 axios@0.30.4。排查参考: stepsecurity.io/blog/axios-com…
Cos(余弦)😶‍🌫️ tweet media
Feross@feross

🚨 CRITICAL: Active supply chain attack on axios -- one of npm's most depended-on packages. The latest axios@1.14.1 now pulls in plain-crypto-js@4.2.1, a package that did not exist before today. This is a live compromise. This is textbook supply chain installer malware. axios has 100M+ weekly downloads. Every npm install pulling the latest version is potentially compromised right now. Socket AI analysis confirms this is malware. plain-crypto-js is an obfuscated dropper/loader that: • Deobfuscates embedded payloads and operational strings at runtime • Dynamically loads fs, os, and execSync to evade static analysis • Executes decoded shell commands • Stages and copies payload files into OS temp and Windows ProgramData directories • Deletes and renames artifacts post-execution to destroy forensic evidence If you use axios, pin your version immediately and audit your lockfiles. Do not upgrade.

中文
37
65
360
234.1K
lalaland retweetledi
阑夕
阑夕@foxshuo·
我对赛车了解很浅,但对人的兴趣很高,去年在程前那里看「从县城修车工到年入7亿的车企老板」,印象很深,这几天张雪在WSBK的夺冠消息刷屏,有种合订本的感觉。 这是一个纯血的中国剧本,不值一文的年轻人靠着勤奋聪明,打破所有的质疑和预期证明自己名利双收,很像短剧,然而胜在真实,这次的版本是,艺术固然源于生活,生活却会高于艺术。 不过我要说的也不是跟风赢吹输婊,而是中国制造业的「好处」可能还在被低估。 这么说可能有点奇怪,中国制造业的强大已经有太多材料佐证了,为什么还会认为它被低估了? 最开始,制造业是承接就业人口的手段,是养活上亿劳动力的饭碗,以2012年的峰值来算,占到了22%以上的全国岗位,这也是张雪赤手空拳开始去重庆创业的年份。 然后你会发现,制造业是有产业带效应的,张雪一个地地道道的湖南人,为什么要去重庆造车,连我这个根本不懂摩托车的人都能理解,重庆出了很多摩托车品牌,比如力帆——感谢那些年看的甲A联赛——配套最齐全,当然适合造车啊。 产业带是集聚效应的成果,当一条产业的上下游工厂都开在「小时达」的接触半径后,所有的成本,包括显性的物流成本和隐性的沟通成本,都会大幅下降,这个时候再用秦晖老师的「低人权优势」去下判断,就解释不通了。 这也是生态的一种,就像黄仁勋放话说竞争对手的芯片哪怕免费出售也撼动不了英伟达的市场优势,姑且不去较真这句大话,他的意思其实是背靠CUDA用了20年经营出来的开发生态,重复造轮子的离开成本其实远远高过芯片本身的溢价成本。 于是就有再然后的,中国在贸易战里越打越顺的既成事实。 贸易战这个事情,颠覆了很多所谓的常识,这很正常,智慧的增长就是需要不断修正自己的认知,比如最经典的「买方市场论」,得罪甲方死路一条。 理论上当然没有任何问题,美国有世界上最强的消费市场,以及同等分量的议价权,供应商不听话,换一个就是,就是这么任性,对吧。 但实际上呢,脱钩喊了这么久,越来越雷声大雨点小,去年还把中国的贸易顺差干到了史无前例的万亿美金级别,不会真以为是穷得响叮当的南方国家填上了美国的市场吧,还不是转口贸易立大功。 如果说转口贸易是中国企业在钻空子,那么问题来了,如果美国本土没有消费需求,这转口也不可能成立啊,反过来也是一样,新加坡前几年最高时消化了英伟达超过28%的芯片出口,怎么,是新加坡人特别爱拿芯片泡酒喝吗? 好用的东西,就是不愁卖,都是千年的狐狸,谁也别玩聊斋。 贸易没有输赢,它的本质是各取所需,印度、越南、印尼都尝试过要当中国的备份,但是仔细去看,除了承接中国产业链本就向外转移的那部分之外,能够自食其力的,很少。 到头来就是现在这么一个纳什均衡的状态,「任何单个参与者都无法通过仅改变自己的策略来获得更高的收益」,美国做不到,中国也做不到,大家继续按照比较优势的规律行动。 再往下讲,就是制造业对于工程师的培养能力,中国——或者说整个东亚——历史上是没有工程师文化的,这边更讲究以师徒相授的关系为底座的工匠文化,如果你们还记得的话,「工匠精神」还在中文互联网火过一阵子,幸好后来没被带偏。 工程师文化是舶来的,它也没有通过进入教育体系来从头塑造,完全基于繁荣的制造业和商业自下而上的开枝散叶,在这个语境里的工程师,也和老旧宣讲材料里的那些「张工」「李工」完全不一样了,是个人禀赋、致富回报、市场机会的叠加塑造。 张雪就是凭借他的手艺去重庆的,手艺怎么来的,早年自己修车,修熟了去车队当机械师,最后真当成了车手,用一线实践来指导产品研发,就这么一件事干了十年,到了26岁创业的时候,就会发现资源开始自动的围过来。 讲道理,如果把张雪这个名字抹掉,这个故事特别像我们从小看的日本或者美国传记文学,道奇兄弟不就是这么成功的吗,自小用废铁造自行车,逆向工程汽车轴承,从给福特供应零部件起家,翅膀硬了就做了自己的品牌。 以及帕卡德、戴尔、博斯⋯⋯事实证明,拥有强大的制造业传统,就是能够孕育出工程师的梯队,因为再离谱的设想都能在可控的成本里验证试错,而不是变成一摞摞的达芬奇手稿。 现在,我们要熟悉张雪这样的中国人名越来越多的出现在史册上了。 张雪说他到重庆后,第一个去的就是一个类似华强北的地方,按照自己的需求,2万块钱就攒出了一台车,用这台车换到了启动资金,公司做大之后,他要自己来做发动机,把精度从5丝压到3丝,也是能找到供应商实现这个要求。 苹果的CEO库克在电视采访里说过这么一段意思,苹果选择中国代工早就不是人力成本低这个原因了,在美国如果要开一个模具会议,能找来的工程师连一间办公室都坐不满,但在中国可以坐满好几个足球场。 你可以说他来中国出差是在舔市场,但不能质疑他作为一个供应链大佬的身份被选为CEO的资质和判断。 众所周知,制造业能为就业兜底,同时这种兜底,又能构建一套丰富的工程师梯队,从熟练技术工人,到中级技术专家,再到高级研发人才,更重要的是,这套体系有着充分的流动性,它和其他很多传统行业不一样,对生产资料的依赖很低。 张雪的身份就经历了多次的无缝切换,当他在湖南修车的时候,是底层小工,当他在车企打工时,是技术专家,当他自己创业,就是在用高级研发的本事去组队,他自己都说了,「大家开始习惯了,跟张雪一起去把事情干出来。」 最后,可能在很多人看来是微不足道的,但我觉得非常有意义的是,制造业的昌盛可以真的为所欲为,包括培养出一大批追随本心实现所谓「资产阶级趣味」的活人。 赛车运动就是其中之一,还有国产跑鞋这些年在马拉松赛事里的渗透,以及Hi-Fi是怎么从发烧友市场变成挑战大牌的,甚至连俞浩都属于这个范畴,他是中国最早的四旋翼无人机开发者,因为对马达技术感兴趣,「转行」干了扫地机器人⋯⋯ 「资产阶级趣味」的本质,是从心,也是自由,自由这个事吧,需要松弛和风险,在紧张的社会里是一种奢侈,但在一个乐观向上的环境里,它又是一个必需品。 某种意义上,张雪峰和张雪都代表了中国的多个棱面: 张雪峰为普通家庭降低选择的容错,用肉身撑起那条拿文凭换未来的轨道,如实告知你们承担不起自由这玩意儿。 而连高中都没上过的张雪又证明了,自由纵使不是免费的,但它却会为那些真正相信自己有才能的人打开大门,「我比别人努力十倍,成功凭什么不是我的?」 可以结果参差不齐,唯要机会公正平等,健康的制度就是要实现这个原则。 「有没有一种可能,张雪如果不是家庭条件那么差,父母没能力管他,现在也揣着某个二流大学的文凭在送外卖?」 是有这个可能。 但我觉得看过他的那些视频的人,都不会这么认为,眼里有光是装不出来的,也很难因为外力而自动熄灭。
阑夕 tweet media
中文
31
66
445
66.7K
StarKnight
StarKnight@StarKnight·
公司让全员写 Skills,是不是一种知识收割。
中文
58
9
271
80.4K
Ryo
Ryo@siantgirl·
node(面试官还问我 event loop)? 很有意思是吧,setTimeout和setImmediate顺序不同? 以上就是💩 是因为 event loop的 路线顺序决定了胜负。 第四站(Poll) 第五站(Check/setImmediate):只需要走一步! 第四站(Poll)第五站第六站 第一站(/setTimeout):需要绕大半个圈,走三步!
Ryo tweet media
中文
11
1
12
6.1K
lalaland
lalaland@InnerHack·
Oh. Power by cloudfalre.
English
1
0
1
13
lalaland
lalaland@InnerHack·
@HappyQQ_AI 写好 api/swagger 可以轻松随便用 mcp 或者 skills 糊一层给 agent 用。
中文
2
0
4
2.9K
🐉HappyQQ🌾🦜💧
🐉HappyQQ🌾🦜💧@HappyQQ_AI·
我们程序员以后开发GUI程序时,先得开发完整功能版本的CLI程序,包括云端平台也是如此…… 听得懂的同学应该知道为什么要这么做。
中文
29
5
183
69.9K
lalaland retweetledi
宝玉
宝玉@dotey·
转译:Harness 工程就是控制论 读 OpenAI 那篇 Harness 工程的文章[1]时,我一直有种说不上来的感觉。然后突然想通了:这个模式我见过,不是一次——是三次。 第一次是 18 世纪 80 年代瓦特的离心式调速器[2]。在它出现之前,得有个工人站在蒸汽机旁边,用手调节阀门。有了它之后,一个带配重飞球的机械装置能自动感知转速并调节阀门。工人并没有消失,但工作变了:从亲手拧阀门,变成设计调速器。 第二次是 Kubernetes[3]。你声明期望状态——三个副本、这个镜像、这些资源限制。一个控制器持续观察实际状态。当两者出现偏差,控制器就会去协调:重启崩溃的 Pod、扩缩副本、回滚有问题的部署。工程师的工作从重启服务,变成了编写系统据以协调的规格说明。 第三次就是现在。OpenAI 描述了这样一批工程师:他们不再写代码。取而代之的是设计环境、构建反馈回路、将架构约束编成规则——然后由 AI 智能体来写代码。五个月,一百万行代码[1],没有一行是手写的。他们管这叫"Harness 工程"(Harness Engineering,意为为 AI 智能体搭建"缰绳"和"马具"般的约束框架)。 三次,同一个模式。诺伯特·维纳[4]在 1948 年就给它起了名字:控制论(Cybernetics),来自希腊语 κυβερνήτης——舵手。你不再亲手拧阀门,而是掌舵。 每一次这个模式出现,都是因为有人造出了足够强大的传感器和执行器,在那个层面闭合了反馈回路。 为什么代码库是最后的堡垒 代码库并非没有反馈回路,只是只在较低层面有。编译器在语法层面闭合回路。测试套件在行为层面闭合回路。代码检查工具在风格层面闭合回路。这些都是真正的控制论式控制——但它们只能检查那些可以机械验证的属性。能编译吗?能通过测试吗?符合规则吗? 而在这之上的一切——这个改动符合系统架构吗?这个方案是不是正确的思路?这个抽象随着代码库增长会不会埋下隐患?——既没有传感器,也没有执行器。只有人类能在那个层面运作,而且是两侧同时运作:判断质量,编写修复。 大语言模型同时改变了这两端。它们能在过去只有人类才能把控的层面进行感知——也能在同一层面采取行动:重构一个模块、重新设计一个不一致的接口、围绕真正重要的契约重写整个测试套件。反馈回路第一次可以在做出关键决策的层面闭合了。 但闭合回路是必要条件,不是充分条件。瓦特的调速器需要调校。Kubernetes 的控制器需要正确的规格说明。而让大语言模型在你的代码库上工作,需要提供一样更难的东西。 校准传感器和执行器 让基本的反馈回路运转起来——智能体可以运行的测试、能输出可解析结果的 CI、能指向修复方向的错误信息——这只是基本门槛。Carlini 已经展示过这一点[5]:他让 16 个并行智能体构建了一个 C 编译器,用的是简单到令人惊讶的提示词[6],但测试基础设施是精心设计的。"我的大部分精力都花在了为 Claude 设计周围的环境——测试、环境、反馈机制。" 更难的问题是用你的系统特有的知识来校准传感器和执行器。大多数人卡在这里,然后把问题归咎于智能体。 "它老是做错。它不懂我们的代码库。"这个诊断几乎总是错的。智能体失败不是因为能力不够,而是因为它需要的知识——什么叫"好"、你的架构鼓励哪些模式、回避哪些模式——锁在你脑子里,你从没把它外化出来。智能体不会靠耳濡目染来学习。如果你不写下来,它在第一百次运行时犯的错和第一次一模一样。 这项工作的本质是让你的判断力变得机器可读。描述实际分层和依赖方向的架构文档。内置修复指引的自定义代码检查规则。编码了你团队审美标准的黄金准则。OpenAI 也发现了这一点[1]:他们每个周五花 20% 的时间清理"AI 垃圾代码"——直到他们把标准编进了 Harness 本身。 唯一的出路 这些实践所要求的一切——文档、自动化测试、编码化的架构决策、快速反馈回路——一直都是正确的。过去三十年出版的每一本软件工程书籍都在推荐它们。大多数人跳过这些步骤,因为跳过的代价是缓慢而弥散的:质量缓慢下滑、新人上手痛苦、技术债务悄悄累积。 智能体化工程让这个代价变得极端。跳过文档,智能体就会无视你的规范——不是在一个 PR 上,而是在每一个 PR 上,以机器的速度,全天候地。跳过测试,反馈回路就根本无法闭合。跳过架构约束,漂移的速度会快过你修复的速度。而陷阱在于:如果智能体不知道"干净"长什么样,你也没法用智能体来收拾这个烂摊子。没有校准,制造问题的机器同样无法解决问题。 实践没有变。忽视它们的代价已经变得无法承受。 生成-验证不对称性——P vs NP[7] 背后的直觉,被 Cobbe 等人用大语言模型实证验证[8]——指明了未来的方向。生成一个正确的解比验证一个解要难。你不需要在实现能力上超越机器,你需要在评判能力上超越它:定义"正确"是什么样子,识别输出哪里不对,判断方向是否正确。 那些设计了瓦特调速器的工人再也没有回去拧阀门。不是因为他们做不到,而是因为那已经没有意义了。 引用链接 [1] Harness 工程的文章: openai.com/index/harness-… [2] 瓦特的离心式调速器: en.wikipedia.org/wiki/Centrifug… [3] Kubernetes: kubernetes.io/docs/concepts/… [4] 诺伯特·维纳: en.wikipedia.org/wiki/Cyberneti… [5] Carlini 已经展示过这一点: anthropic.com/engineering/bu… [6] 简单到令人惊讶的提示词: github.com/anthropics/cla… [7] P vs NP: en.wikipedia.org/wiki/P_versus_… [8] 用大语言模型实证验证: arxiv.org/abs/2110.14168
George@odysseus0z

x.com/i/article/2030…

中文
39
232
1.1K
183.9K
lalaland retweetledi
Matteo Collina
Matteo Collina@matteocollina·
🎯 After years of building with Node.js, I've organized my hard-won knowledge into skills: a collection of best practices, workflows, and deep expertise my AI assistant uses to write code to my standard. No more repeating myself on every code review. 👇
English
23
90
1.2K
93K
lalaland retweetledi
jolestar
jolestar@jolestar·
MCP vs CLI 不是对立问题:真正缺的是调用层 最近刷到几篇关于 MCP 和 CLI 关系的文章。 看完后的感觉是:把这两个东西放在“二选一”的框架里讨论,本身就是个错位。MCP 和 CLI 根本不在一个层面上。 MCP(Model Context Protocol)解决的是能力如何标准化暴露。 CLI 解决的是能力如何被调用。 一个是能力面。 一个是调用面。 现在的问题不是 MCP 能力暴露这层出了问题,而是它的调用机制上,一次性把所有工具塞进上下文的机制上出了问题。 1. 上下文预算很快被工具 schema 吃掉。 2. 调用结果直接回填上下文,缺少中间处理层,没有组合性。 于是有人得出结论:CLI 比 MCP 好。 但这其实是一个假象。真正的问题是——能力面(API)和调用面(Agent)之间,需要一个调用层把二者解耦,渐进式披露能力,并且提供可组合性。 最近做 uxc,我反而更确定了这点。 uxc 支持任何带 schema 的接口(MCP / OpenAPI / JSON-RPC),核心不是“换协议”,而是把接口变成一个可渐进披露的 CLI: uxc -h uxc -h uxc key=value uxc '{...}' 能力发现不再是“一次性注入”,而是按需展开。 在这套映射里,MCP 目前仍然是最适合 Agent 的能力暴露协议: 1. schema 暴露是协议强制的,发现路径稳定。 2. description 通常更完整,语义密度更高,模型更容易对齐。 大家经常拿 gh 和 GitHub MCP 比,我自己也比过。 但这个对比其实不太公平。gh 存在时间长,有语料优势,模型天然会用。 你做一个新的服务+ CLI,有这种语料红利吗? 如果没有一个通用调用层,你最后还是会回到老问题: 1. 每个服务维护一套自己的 CLI。 2. 接口一变就要发版迁移。 3. 用户安装和管理成本持续上升。 这和 Agent 时代想要的“能力可组合”是反方向的。 所以我不觉得“CLI 胜出”意味着“MCP 失效”。 更合理的分工是: MCP 负责标准化能力暴露 CLI 负责调用调度 SKILL 负责任务流程 各层负责各层的事情,互相配合。 uxc 0.5.x 这次发布,我主要补了两件基础能力: 1. API key 管理接入 1Password。 2. daemon 模式自动维持 MCP 长连接和 stdio 进程,长期不用自动清理。 然后给了一个 playwright-mcp-cli 的 SKILL 示例(uxc/skills/playwright-mcp-skill)。 这个例子刚好能把三层关系讲清楚: 1. MCP 暴露 Playwright 的能力 schema。 2. uxc 把 endpoint 固化成稳定命令入口,渐进式披露。 3. SKILL 把工具说明和任务流程补齐。 如果要做技术决策,可以简单这么想: 1. 有远程服务想让 Agent 用,需要标准化 API → MCP 是很自然的选项。 2. 有本地程序需要持续交互状态 → MCP stdio 比 daemon+CLI 更干净。 3. 纯一次性命令、不需要状态 → 直接 CLI 就够。 先想清楚三层,再选协议。 去年大家一窝风吹 MCP,我说有点过了。 现在一窝风踩,我又觉得踩过了。 AI 对工具的调用体系,不会靠一个协议就能解决的,需要时间来拼装演化。 1. 从 MCP 到 SKILL:关于 Agent 扩展机制的思考 x.com/jolestar/statu… 2. 从 MCP 到 SKILL(II):把调用层补齐 x.com/jolestar/statu… 3. CLI Is All You Need x.com/mfranz_on/stat…
中文
10
8
93
12.3K
🐉HappyQQ🌾🦜💧
🐉HappyQQ🌾🦜💧@HappyQQ_AI·
如果一个大公司的CEO 把所有部门的负责人都开了, 那么这个公司破产倒闭的可能性有多大?
中文
224
16
673
352.6K
lalaland retweetledi
Bohan Zhang
Bohan Zhang@BohanZhangOT·
@PostgreSQL has long powered core @OpenAI products like ChatGPT and the API. Over the past year, our production load grew 10× and keeps rising. Today we run a single primary with nearly 50 read replicas in production, delivering low double-digit millisecond p99 client-side latency and five-nines availability. In our latest OpenAI Engineering blog, we unpack the optimizations we made to to scale @Azure PostgreSQL to millions of queries per second for more than 800M ChatGPT users. Check out the full post here: openai.com/index/scaling-…
English
41
189
1.3K
467.4K
lalaland retweetledi
Enes Akar
Enes Akar@enesakar·
Introducing Context7 Skills. - Search across 24k+ skills - Install skills with single command - Generate your own skills using Context7 docs (coming soon) 👇 npx ctx7 skills search "Better Auth"
English
54
192
2.2K
285.9K