本恰恰

6.4K posts

本恰恰 banner
本恰恰

本恰恰

@hongyangchun

野生思想家

30.190128,120.147995 Katılım Mart 2007
852 Takip Edilen397 Takipçiler
本恰恰
本恰恰@hongyangchun·
一直是老套餐,非常耐操。上次还允许老用户自动续费,我也没错过。😁
中文
0
0
0
42
本恰恰
本恰恰@hongyangchun·
@YuLin807 感觉不如opencode go 啊,10美金一个月里面也有包括minimax在内的开源模型。
中文
1
0
1
142
本恰恰
本恰恰@hongyangchun·
我傻了,用opencode写代码,装了个oh-my-opencode 插件又装了superpowers一整套skills,结果发现动不动就context爆炸,token烧得飞起,出来的代码质量还不行,把omo插件卸了之后,整个世界流畅多了。真是被自己蠢哭了。
中文
0
0
0
147
Jackywine
Jackywine@Jackywine·
一个极简产品团队: 产品设计工程师 开发工程师 还差一个什么岗位
Jackywine tweet media
中文
23
2
37
12.3K
本恰恰
本恰恰@hongyangchun·
@mohistzh @xicilion 好像用不了Claude系列的模型,只能用GPT-4 据说是被官方限制了,可能是学生认证的限制。
中文
1
0
1
835
M3
M3@mohistzh·
@xicilion OpenCode + Copilot 订阅,一直这么用的
中文
3
0
7
13.9K
本恰恰
本恰恰@hongyangchun·
@BruceBlue @github 最近发现在opencode 里面调用github copilot的claude 系列模型被禁用了,GPT 5.4倒是可以用
中文
0
0
1
2.3K
BruceBlue 🌊
BruceBlue 🌊@BruceBlue·
本来还打算买Claude Max的,结果把GitHub Copilot一拉进来对比……我沉默了😱 1️⃣Claude最近太离谱了,动不动就不够用; 2️⃣发现Copilot Pro:$10/月就能解锁: 🔹Claude Opus 4.6(3x倍率 ≈100次) 🔹Claude Sonnet 4.6(1x倍率 300次) 🔹无限IDE自动补全(每次Send一条prompt就算1次) 3️⃣最牛的是Copilot Agent模式:重构整个项目只消耗1次用量; 4️⃣性价比直接把独立Codex + Claude Pro干爆! 5️⃣最重要的是完全不封号,而且随便订! 强烈推荐给所有重度coding的朋友,省钱又高效🚀 👉官方文档:docs.github.com/en/copilot/get… #Copilot #ClaudeCode #GitHub
BruceBlue 🌊 tweet media
BruceBlue 🌊@BruceBlue

订阅了一大堆的AI工具/模型,实践下来每个都有自己最擅长的部分: Grok = 情报员(调研/实时数据/实时研究) Manus = 侦察兵(脑爆/Research/MVP) Claude = 大脑(架构/规划) Codex/GPT = 四肢(主力代码产出) MiniMax = 苦力(脏活累活/测试/Mock) Cursor = 手术刀(精修/调试/Debug) Gemini = 审计师(日志/全库Review) 并行的流水线:在Cursor里调试的同时,Codex异步生成下一批模块,MiniMax批量产出测试+Mock,三线并行超级快乐。

中文
49
70
484
154.9K
Indie Fox
Indie Fox@indie_maker_fox·
分享一个skills管理软件: SkillsGate 它可以管理本机和云机上安装的技能,不同工具配有不同的图标方便查看支持情况,当然,也支持直接修改技能文档。 我所有的技能都安装在全局目录 (~/.agents/skills),用git管理,各个工具都通过symlink链接过来。 好处是1、我换个电脑可以快速同步所有技能;2、我修改一处所有工具的技能都更新了;3、执行npx skills update可以快速升级所有的技能。
Indie Fox tweet media
中文
12
31
193
19K
本恰恰
本恰恰@hongyangchun·
@Jingyuan_521 太漂亮了建议不要露脸,根本听不清在说什么。🥲
中文
0
0
0
62
Jingyuan缘缘
Jingyuan缘缘@Jingyuan_521·
我用Pretext给两个5岁的儿子vibe coding了一个讲故事的交互网站。加入AI后,我每天都在思考如何让更多非技术的人理解AI现在到底能带来什么? 说实话现在的落地场景还非常有限,但技术进步的速度很快,我能感受到AI可以让创造的门槛越来越低。哪怕不善于镜头前表达的人,也可以把细腻的情绪通过技术的帮助,更完整的传达出来,我乐观地认为,这一定是一个很美好的未来。
中文
26
33
332
41.2K
本恰恰
本恰恰@hongyangchun·
oh-my-opencode 这个插件最傻逼的一点就是,如果子代理因为某种原因卡住了,比如模型调用限额了,主代理就一直在那里等啊等啊等啊等。。。不过也许这是 opencode 本身的机制,总之非常浪费时间。
中文
0
0
0
78
HankAI
HankAI@hank_aibtc·
AnyDesk、RustDesk、Zerotier都试了,最后还是Tailscale胜出! 用Tailscale远程控Mac Mini: - 基于WireGuard,速度更快、更安全 - 零配置,几乎无延迟(高铁实测能接受) - 支持多设备,手机/iPad也能连 - 不影响本地VPN,家宽网络直连 Mac Mini放家里当常驻AI引擎,我带轻本满世界跑,真正实现人在江湖,心在服务器。 龙虾负责故障重启claude,tailscale负责龙虾故障远程重启。 安全方面,用同一账号+权限控制就行,比传统端口映射靠谱多了。你们远程桌面主力是哪个?
中文
30
37
323
40.5K
Jason Zuo
Jason Zuo@xxxjzuo·
Karpathy 的 LLM Knowledge Base 工作流,核心就一句话: 用 LLM 操作知识,不只是操作代码 他的完整 loop: 1. 原始素材(论文/文章/代码/图片)整理进raw/ 目录 2. LLM "编译"成结构化 wiki(.md 文件 + backlinks + 概念分类) 3. Obsidian 当前端浏览 4. wiki 够大后(他的案例:100篇文章 40万字),直接对 wiki 问复杂问题 5. 每次问答的输出归档回 wiki ,这不我觉得是核心,知识库越用越强 6. LLM 做健康检查:找矛盾数据、补缺失、挖新主题 最 counterintuitive 的发现:中等规模下根本不需要 RAG。LLM 自己维护 index + 摘要就够了。 终极方向:synthetic data + finetune,把知识学进权重里。 这应已经属于一个完整的self-improving的产品思路了
Andrej Karpathy@karpathy

LLM Knowledge Bases Something I'm finding very useful recently: using LLMs to build personal knowledge bases for various topics of research interest. In this way, a large fraction of my recent token throughput is going less into manipulating code, and more into manipulating knowledge (stored as markdown and images). The latest LLMs are quite good at it. So: Data ingest: I index source documents (articles, papers, repos, datasets, images, etc.) into a raw/ directory, then I use an LLM to incrementally "compile" a wiki, which is just a collection of .md files in a directory structure. The wiki includes summaries of all the data in raw/, backlinks, and then it categorizes data into concepts, writes articles for them, and links them all. To convert web articles into .md files I like to use the Obsidian Web Clipper extension, and then I also use a hotkey to download all the related images to local so that my LLM can easily reference them. IDE: I use Obsidian as the IDE "frontend" where I can view the raw data, the the compiled wiki, and the derived visualizations. Important to note that the LLM writes and maintains all of the data of the wiki, I rarely touch it directly. I've played with a few Obsidian plugins to render and view data in other ways (e.g. Marp for slides). Q&A: Where things get interesting is that once your wiki is big enough (e.g. mine on some recent research is ~100 articles and ~400K words), you can ask your LLM agent all kinds of complex questions against the wiki, and it will go off, research the answers, etc. I thought I had to reach for fancy RAG, but the LLM has been pretty good about auto-maintaining index files and brief summaries of all the documents and it reads all the important related data fairly easily at this ~small scale. Output: Instead of getting answers in text/terminal, I like to have it render markdown files for me, or slide shows (Marp format), or matplotlib images, all of which I then view again in Obsidian. You can imagine many other visual output formats depending on the query. Often, I end up "filing" the outputs back into the wiki to enhance it for further queries. So my own explorations and queries always "add up" in the knowledge base. Linting: I've run some LLM "health checks" over the wiki to e.g. find inconsistent data, impute missing data (with web searchers), find interesting connections for new article candidates, etc., to incrementally clean up the wiki and enhance its overall data integrity. The LLMs are quite good at suggesting further questions to ask and look into. Extra tools: I find myself developing additional tools to process the data, e.g. I vibe coded a small and naive search engine over the wiki, which I both use directly (in a web ui), but more often I want to hand it off to an LLM via CLI as a tool for larger queries. Further explorations: As the repo grows, the natural desire is to also think about synthetic data generation + finetuning to have your LLM "know" the data in its weights instead of just context windows. TLDR: raw data from a given number of sources is collected, then compiled by an LLM into a .md wiki, then operated on by various CLIs by the LLM to do Q&A and to incrementally enhance the wiki, and all of it viewable in Obsidian. You rarely ever write or edit the wiki manually, it's the domain of the LLM. I think there is room here for an incredible new product instead of a hacky collection of scripts.

中文
5
7
49
7.8K
洺熙
洺熙@xishan12509850·
破限版无限制Claude Code上线! 一行命令,解锁 Claude Code 全部权限 移除安全过滤 + Agents无限制 +无遥测监控 橙色秒变绿色=解锁成功!🚀 30秒极速安装 不喜欢直接卸载: 项目地址:github.com/0Chencc/clawgod
中文
7
86
586
60.4K
范凯说 AI | Kai on AI
范凯说 AI | Kai on AI@fankaishuoai·
我在腾讯云 VPS 上自建了一个 Tailscale 中继节点,然后让 Claude Code 通过 SSH 帮我配好。 效果立竿见影。 原来我从 MacBook 远程登录家里的 Mac Studio,延迟大概 200~300ms;现在因为中继节点放在南京,已经降到 50~60ms。 这意味着,我现在基本可以在任何地方顺畅地远程干活了。 更爽的是,我还把 Mac Studio 上本地模型的端口开放给了 MacBook。 也就是说,MacBook 在外面也能直接调用我本地部署的通义千问,不用再额外消耗 token。 说白了,这相当于把家里的 AI 工作站,变成了我随身可用的远程算力节点。
中文
48
35
322
64.3K
本恰恰
本恰恰@hongyangchun·
@Kaspar_Chen 没找到release下载的地方,点进去是空的。
中文
2
0
1
250
Kaspar Chen
Kaspar Chen@Kaspar_Chen·
我真的很喜欢 Raycast Notes 一键唤起,悬浮置顶,markdown 编辑 但 free plan 只有 5 篇笔记的限额。。。 于是我手搓了一个 Notes + TodoBar + 文本编辑器: 「Meeemo」 ⟡ 无限本地实渲 .md ⟡ 快捷唤起 ⟡ 菜单栏 todo ⟡ 一键切换 MD ↔ 纯文本 开源,一直免费。 github.com/KasparChen/mee…
中文
11
9
77
12.8K