海拉鲁编程客

16.2K posts

海拉鲁编程客 banner
海拉鲁编程客

海拉鲁编程客

@hylarucoder

🖥️ Indie Maker 📌 油管「海拉鲁编程客」 🌸 沦为程序员的段子手/猫咪

👉 Katılım Aralık 2011
1.1K Takip Edilen21.5K Takipçiler
海拉鲁编程客
海拉鲁编程客@hylarucoder·
🤔 ban 了 oh my opencode,不久后就上线了核心的 team ban 了 龙虾,不久后就上线了 channel
中文
4
0
42
13.8K
海拉鲁编程客
海拉鲁编程客@hylarucoder·
@eryidebiji 我每天会用codex把主要职责范围写到agents里面。有点像是开早会了
中文
0
0
1
121
二一的笔记
二一的笔记@eryidebiji·
即便用上了更好的模型 我还是得不停地向 OpenClaw 确认 你记住了吗?你真的记住了?你在哪里记住的? 输出你的 AGENTS.md 输出你的 MEMORY.md 输出你的 USER.md Claude Code 启动! 看看 OpenClaw 是不是又挂了 帮我修复一下
中文
2
0
1
743
海拉鲁编程客
海拉鲁编程客@hylarucoder·
朴素的商战
蓝点网@landiantech

💥💥💥突发:#OpenCode 收到 #Anthropic 法律投诉,现已清空任何与Anthropic/Claude相关的内容。 变更内容如下: 删除 Anthropic 专有的系统提示词文件 anthropic-20250930.txt 从模型提供商和模型枚举列表中完全移除 Anthropic 和 Claude 相关选项 从软件内部彻底删除原本用来认证的 opencode-anthropic-auth 插件 清理代码中针对 Anthropic 的特殊请求头处理,例如 claude-code-20250219 更新支持文档删除有关 Claude Pro 和 Claude Max OAuth 登录流程的描述 调整 CLI 提供商登录界面不再显示任何与 Anthropic 有关的 API KEY 提示标签 👉ourl.co/112251?x

中文
0
0
0
1.4K
海拉鲁编程客
海拉鲁编程客@hylarucoder·
@iamzhihui 我之前一直用这个帮我同步各个地方的数据。感觉接上龙虾可能玩法就更多了
中文
1
0
2
99
志辉
志辉@iamzhihui·
@hylarucoder 我都没用起来,有啥打动人的一些案例吗?
中文
2
0
0
96
海拉鲁编程客
海拉鲁编程客@hylarucoder·
是的,互联网软件的知识大都是公开可训练可验证的 我去年写了很多编程的tips,甚至在早于很多ide开发之前就用类plan模式进行开发。 但今年相当多的技巧就完全用不上了。直接一两句话的事情。
luolei@luoleiorg

@Erwinminion @turingou 我反而觉得,不要再迷信“经验壁垒”了。过去很多靠经验和架构积累形成的护城河,正在被 AI 快速抹平,尤其对中小应用和服务来说更是如此。现在稍微好一点的 AI,在架构层面给出的方案,已经越来越接近业界通用最佳实践了。

中文
1
0
9
3K
banboo
banboo@xbanboo·
@bearliu 不算吧,我看好多都是俩人😅
中文
4
0
9
1.2K
Bear Liu
Bear Liu@bearliu·
问个严肃的问题: 全职做 OnlyFans 算一人公司创业吗?
中文
41
0
23
12.8K
海拉鲁编程客
海拉鲁编程客@hylarucoder·
🤡直接把记忆塞给大模型里面?
艾略特@elliotchen100

论文来了。名字叫 MSA,Memory Sparse Attention。 一句话说清楚它是什么: 让大模型原生拥有超长记忆。不是外挂检索,不是暴力扩窗口,而是把「记忆」直接长进了注意力机制里,端到端训练。 过去的方案为什么不行? RAG 的本质是「开卷考试」。模型自己不记东西,全靠现场翻笔记。翻得准不准要看检索质量,翻得快不快要看数据量。一旦信息分散在几十份文档里、需要跨文档推理,就抓瞎了。 线性注意力和 KV 缓存的本质是「压缩记忆」。记是记了,但越压越糊,长了就丢。 MSA 的思路完全不同: → 不压缩,不外挂,而是让模型学会「挑重点看」 核心是一种可扩展的稀疏注意力架构,复杂度是线性的。记忆量翻 10 倍,计算成本不会指数爆炸。 → 模型知道「这段记忆来自哪、什么时候的」 用了一种叫 document-wise RoPE 的位置编码,让模型天然理解文档边界和时间顺序。 → 碎片化的信息也能串起来推理 Memory Interleaving 机制,让模型能在散落各处的记忆片段之间做多跳推理。不是只找到一条相关记录,而是把线索串成链。 结果呢? · 从 16K 扩到 1 亿 token,精度衰减不到 9% · 4B 参数的 MSA 模型,在长上下文 benchmark 上打赢 235B 级别的顶级 RAG 系统 · 2 张 A800 就能跑 1 亿 token 推理。这不是实验室专属,这是创业公司买得起的成本。 说白了,以前的大模型是一个极度聪明但只有金鱼记忆的天才。MSA 想做的事情是,让它真正「记住」。 我们放 github 上了,算法的同学不容易,可以点颗星星支持一下。🌟👀🙏 github.com/EverMind-AI/MSA

中文
2
0
4
3K
海拉鲁编程客
海拉鲁编程客@hylarucoder·
GUI虽寿 犹有尽时 CLI暮年 壮志不已
中文
3
2
12
2.5K
非典型程序员
非典型程序员@null12022202·
这回不给它具体要求,只让它遵循第一性原理来重构代码,它梳理了这个大文件里的各项功能,对功能进行了分类,每个模块只聚焦一类的功能,是我理想中的结构。 想起来今天看到 @chunxiangai 的推文,觉得的确不应该让自己的局限限制了 AI 的能力。
非典型程序员@null12022202

让 gpt-5.4 xhigh 给一个代码比较多的 JS 文件重构一下,结果它只是按照各函数功能的相关性,把函数的顺序调整了一下。不过这的确也是我给它的明确要求,也不能怪人家……

中文
2
0
0
622