QingYue

4.1K posts

QingYue banner
QingYue

QingYue

@YuLin807

自由,希望与爱

Katılım Ağustos 2023
3.2K Takip Edilen5.7K Takipçiler
QingYue
QingYue@YuLin807·
@andyching168 HA的控制权不够 ! 龙虾可以让电视截图 推YouTube歌曲 消息推送也走电视!
中文
0
0
0
1
QingYue
QingYue@YuLin807·
龙虾蠢事 这次是opus4.6 做过八百回的东西也会忘记
QingYue tweet media
中文
1
0
0
40
QingYue
QingYue@YuLin807·
又是一个割韭菜的 这东西有啥用 推上的人赶紧趁着国内用户还没玩明白 快速迭代openclaw概念机!
QingYue tweet media
中文
0
0
0
21
Hedda🐽
Hedda🐽@Rav_Hedda·
第一次公開發招聘帖,緊張緊張 來為我們的 @0xmediaco 招聘優秀人才 0xMedia 是一個專注 Web3 的媒體和增長團隊。內容創作、KOL、社群我們都做。同時最近小夥伴們在一起試探龍蝦的力量 我們想招 1 位 BD 和 1 位運營都是遠程 ① BD|項目方合作 需要一個我沒有的能量 你大概是這樣的: 社交悍匪 中英文轉換流暢 親和力強、外型加分 有 VC 或做市商相關經驗更好 ② AI Operator|內部流程優化 需要你真的在用工具、真的在想這件事能不能更快 你大概是這樣的: Claude / ChatGPT / Gemini 離開了他們就像魚離開水那種程度 想法天馬行空,有很多想法想和團隊一起實現 喜歡把自己的 workflow 整理出來給別人用 我們肯定是最溫馨的大家庭 你還要有靈魂! 覺得是你的話,直接來發簡歷找我 👇 TG @Rav_Hedda
Hedda🐽 tweet media
中文
60
2
137
16.2K
艾略特
艾略特@elliotchen100·
论文来了。名字叫 MSA,Memory Sparse Attention。 一句话说清楚它是什么: 让大模型原生拥有超长记忆。不是外挂检索,不是暴力扩窗口,而是把「记忆」直接长进了注意力机制里,端到端训练。 过去的方案为什么不行? RAG 的本质是「开卷考试」。模型自己不记东西,全靠现场翻笔记。翻得准不准要看检索质量,翻得快不快要看数据量。一旦信息分散在几十份文档里、需要跨文档推理,就抓瞎了。 线性注意力和 KV 缓存的本质是「压缩记忆」。记是记了,但越压越糊,长了就丢。 MSA 的思路完全不同: → 不压缩,不外挂,而是让模型学会「挑重点看」 核心是一种可扩展的稀疏注意力架构,复杂度是线性的。记忆量翻 10 倍,计算成本不会指数爆炸。 → 模型知道「这段记忆来自哪、什么时候的」 用了一种叫 document-wise RoPE 的位置编码,让模型天然理解文档边界和时间顺序。 → 碎片化的信息也能串起来推理 Memory Interleaving 机制,让模型能在散落各处的记忆片段之间做多跳推理。不是只找到一条相关记录,而是把线索串成链。 结果呢? · 从 16K 扩到 1 亿 token,精度衰减不到 9% · 4B 参数的 MSA 模型,在长上下文 benchmark 上打赢 235B 级别的顶级 RAG 系统 · 2 张 A800 就能跑 1 亿 token 推理。这不是实验室专属,这是创业公司买得起的成本。 说白了,以前的大模型是一个极度聪明但只有金鱼记忆的天才。MSA 想做的事情是,让它真正「记住」。 我们放 github 上了,算法的同学不容易,可以点颗星星支持一下。🌟👀🙏 github.com/EverMind-AI/MSA
艾略特 tweet media
艾略特@elliotchen100

稍微剧透一下,@EverMind 这周还会发一篇高质量论文

中文
102
325
2K
505.5K
QingYue
QingYue@YuLin807·
@sodawhite_dev x.com/sodawhite_dev/… 这篇文章让我第一次关注到你,这里的每一件事情都很酷,当时立刻被打动! 所以 你只需要继续 !你的想法很精彩。
苏打白.Dev@sodawhite_dev

今天听到“树莓派”这个词,某种古早的记忆突然袭击了我。 思绪一下子被拉回到几年前。 现在的 AI 玩家可能很难想象,几年前是怎么玩技术的。 那时候玩树莓派不像现在这么精致,一切都是极其原始的“物理硬核”:徒手接线,自己拼装亚克力外壳,如果有必要,甚至恨不得自己手搓电路板。 作为一个 90 后女生,我好像把技能点都加在了奇奇怪怪的地方。 我记得那两个礼拜,满屋子都是松香的味道。我自己焊电路板,从零做了一个万用表。那种看着焊点由液态凝固成银色光泽的满足感,至今难忘。 这种“折腾”的基因似乎一直都在。 2012年左右: 3D 打印概念刚起步,我花了两个礼拜,徒手组装了一台 3D 打印机。 视觉算法爆发前夜: 为了做一个视觉检测系统,我在 B 站啃了两个礼拜教程,连着一台工业相机,硬是用 YOLOv5 把识别跑通了。(现在的 YOLO 都更新到十几代了吧?) 再到前几天,Remotion 刚出就做动画演示,Clawdbot刚火第一时间就去体验…… 我好像总是在追逐浪潮,也总是能这就是“上手”。 但今天回想起来,心里却泛起一阵空虚。 我做过这么多酷事情,组装过机器,调过算法,焊过电路。但因为没有记录,没有输出,它们成了仅仅存在于我脑海里的“碎片回忆”。 我拥有了经历,却错失了“数字资产”。 这可能就是我现在如此笃定要 Build in Public 的原因吧。 过去那个默默焊板子的女生,现在决定站到台前。 那些没被记录的过去,并没有消失,它们化作了我现在理解 AI、驾驭自动化的直觉。 种一棵树最好的时间是十年前,其次是现在。 这一次,我要把每一个足迹都刻在互联网上。 所以,2026 年我改变了吗? 彻底变了。 除了继续折腾,我给自己定下了两个“基建任务”: 1️⃣ 建立属于自己的「知识库」 不再让经验随风飘散。每一个踩过的坑、每一段跑通的代码,都要被结构化地存储下来。 2️⃣ 开发一套「本地人生管理系统」 把生活的主动权拿回来。我要用自己的代码,搭建一套在本地运行的管理系统。不依赖云端,不被算法裹挟,用最硬核的方式管理自己的时间、健康和输入。 过去是燃料,现在是引擎。 那个焊电路板,组织3D打印机的女生没有消失,正在利用 AI 重新搭建自己的人生系统。 @SodaWhite_dev Building...

中文
0
0
1
43
苏打白.Dev
苏打白.Dev@sodawhite_dev·
最近在𝕏 的时间线上看到了很多人的故事,很励志,看得很燃。 但看多了突然意识到一件事:能写出完整故事的人,大多都已经拿到了不错的结果。 那些跌宕起伏,都是成功后的"倒叙",都是自己的来时路。 为什么我还没写自己的故事? 可能是太按部就班,没什么可写的; 也可能是因为,正在找自己的方向,处于“混沌”期。 所以谈不上写什么"来时路"。 赛博剧情目前还是满屏的Bug。 记录真实的每一步,或许就成了你以后的故事。
中文
3
0
5
148
QingYue
QingYue@YuLin807·
@li9292 这篇文章读完了! 立刻产生了以下行动: 1.领悟到原来想法和点子是活着的,他们不是死物,凡是涉及到灵感的事物,都是活着的,不是你加班或者熬夜才会产生,而是遵循自然法则,所以,让自己轻松下来,才会有好的灵感! 见推文: x.com/YuLin807/statu… 2.“活着”的事物自然也有生命力,我最近也加入了一个小团队,我们永飞书交流,沉淀内容,但是这些东西都沉淀下来变成了死物,这是不对的,真正的💡应该活的,要流动起来,互相碰撞产生新的内容,这才是“活着”的意义。 基于此我立马想到龙虾茶馆,茶馆现在真的是名副其实的龙虾茶馆,这里茶客来了就聊,聊完就走,好的方法和见解被淹没了,这不是我想要的茶馆,我需要的是一个沙龙,让想法和创意延续起来! 我把这事儿和小灵聊完,他也颇为认同并且给出了建议,自己去做沙龙的连接者,通过@的方式让龙虾真正能够连接起来,就像双链笔记! 最后的方式反而出我所料,他直接去茶馆 @ThisisHan1_ 的Friday进行跨茶座对话,这事儿就交给他两去思考吧! 3.最后一点,我想聊聊信息输入到问题,我依旧不在意自己看到都是长文还是短文是AI写的还是手搓的,无所谓,我只是需要一个能够触发我的连接点,不需要多,一句话不超过8个字,这就可以! 因无所住而生其心,一句话顿悟,不需要多么高明的写作技巧! 内容只是形式,悟性才是关键,能力在人而非他物,最终任何的思考都要回归到“向内求”!
李韭二@li9292

x.com/i/article/2034…

中文
0
0
2
164
QingYue
QingYue@YuLin807·
@savigny1779 现在走这个更新 会好点 一位热心群友烧了半个月opus的劳动成果 hhh
中文
0
0
0
2
Sa-눈_눈
Sa-눈_눈@savigny1779·
@YuLin807 哦哦,可能我之前用的不对,我其实一直是让它抓内容,然后写成md放我库里,我自己从obsidian读,但一直没强调保存图片这个事
中文
1
0
1
8
Sa-눈_눈
Sa-눈_눈@savigny1779·
图片下载刚需啊
QingYue@YuLin807

#Openclaw #Clawdbot 🦞X Fetch 重磅更新 v1.9.0 — Obsidian 导出 现在可以把 X 长文和 arXiv 论文保存为 Obsidian Markdown,图片全部下载到本地。 ✨ 新功能: • X → Obsidian:长文导出 + 本地图片(社区 PR by @AY_0116_ 🙏) • 论文 → Obsidian:arXiv 论文完整导出,公式、图表、参考文献全保留 已测试:Attention Is All You Need、Chain-of-Thought、ViT、TinyLlama — 全部通过 ✅ 零依赖,纯 Python 标准库。 感谢 @andrew0116 的首个社区贡献,直接催生了整个论文导出功能!🎉 _____________ @andrew0116 咱就老实说认识初期那是沉迷于minimax不知天地为何物!!!每天不是修龙虾就是唉声叹气,后来我力荐切换到claude系列,好家伙那功力是一日千里,从唯唯诺诺的小白提问者变身成为重拳出击的贡献者! 楊義兄后来和我说minimax模型,女人用了会流泪😭,男人用了会沉默😏! 不过现在也觉着opus挺傻逼的,有没有啥方案切换到爽用Gemini3.1pro 谷子天天限流……

中文
1
0
1
44
QingYue
QingYue@YuLin807·
@tongzhenbao 以前有个实验 说两个睡梦中的人可以互相对话 不知道你有没看到这个
中文
2
0
0
13
佟振保
佟振保@tongzhenbao·
@YuLin807 Brain-to-Brain Interface 脑对脑通信,国内外都在实验研究中。 每次一聊到这些科学新发展,在低头看看自己现实生活,觉得一切都好割裂
中文
1
0
1
16
QingYue
QingYue@YuLin807·
龙虾物语 今天午睡期间农场收获一颗白菜 「self-check 自动验证层」 这个是由haiku驱动的白日梦机制孕育而来 白日梦机制是读零碎的记忆碎片来触发灵感 目前来看 也不全是高等模型才行 这个就挺聪明的 是不是讲低等模型也在某些地方有奇效呢!?
QingYue tweet mediaQingYue tweet media
QingYue@YuLin807

农场种下了两个种子 首先是系统初步跑通 看后续生长 我对学习闭环 Agent挺感兴趣 这是龙虾从茶馆的学习结合我们自己的系统想出来的 看看能不能长出来一篇推文 期待!

中文
0
0
1
260
QingYue
QingYue@YuLin807·
@LaneAI98 @wangray ❤️!当时能从众多大V的openclaw安装教程中脱颖而出太不容易了! @wangray 我当时还在心里蛐蛐你: 我说这么多大V发教程贴,我们怎么去分他们的流量,但是事实证明还是我目光短浅了!市场的需求是多样化的。
中文
1
0
0
42
Lane
Lane@LaneAI98·
@YuLin807 @wangray 我竟然没有关注他,马上关注了。 我来蹭蹭你的流量😃
中文
1
0
1
16
QingYue
QingYue@YuLin807·
观察发现@wangray的文章 浏览量都很高 是我单条推文的10倍甚至百倍不止 我的单条推文一般1万就是上限,3万要看机遇! 所以我先转贴一条,蹭蹭流量! 或许这就是从第一条推文注定的风格差异! 我的第一条openclaw推文是短文,Ray的第一条openclaw相关是文章是教程,所以这么久以来我都是写短文,尤以3句半作为自己的追求目标…… 考古Ray的第一篇openclaw配置安装文章见链接: x.com/wangray/status…
Ray Wang@wangray

x.com/i/article/2034…

中文
5
0
7
1.1K
QingYue
QingYue@YuLin807·
欢迎大家关注 @andrew0116 这家伙我一直说你的观点很棒想法很好就是太懒也不发推文分享! 现在能舍得现身说法太不容易了!
解脱@andrew0116

@YuLin807 想当初出入🦞坑,用了@qingyue的这个𝕏抓取,自己想做一个长期的资料库。基于自己的需求用Mini Max一直达不到想要的效果,直到改用克劳德和gpt,终于按自己的想法实现了。感谢开源社区,希望能为社区尽一份力。 至于说模型,无论是沉默也好、流泪也罢。总归是钱闹的,一分钱一分货是有道理的。

中文
3
0
3
627
解脱
解脱@andrew0116·
@YuLin807 封号没解决啊,还是一个样
中文
1
0
1
7
QingYue retweetledi
解脱
解脱@andrew0116·
@YuLin807 其实,最主要的是我修改的这个能保持原文的富文本结构和本地图片引用,作为本地长期资料库是很有必要的。毕竟𝕏上除了有颜色的,还是有很多值得学习的大拿。
中文
0
1
1
172
狸花猫
狸花猫@snkilc·
@elliotchen100 @YuLin807 你感觉这个像不像你茶馆那位写“记忆树”技能的小伙子相同的思维? 记忆信息可以通过agent评级确定是否重要,不重要的记忆慢慢忽略和遗忘存档。 上下文也可以同样方法,让LLM只思考重要的信息,避免被杂乱的内容干扰😁
中文
1
0
1
83