Lane

116 posts

Lane

Lane

@LaneAI98

写了8年代码,现在学习用AI 关注 Agent,Memory,Vibe Coding,SEO 思考、实践、踩坑,都记下来

Shanghai Katılım Aralık 2015
1.5K Takip Edilen50 Takipçiler
dontbesilent
dontbesilent@dontbesilent·
正在分析我的推文 1、哲学/认知类推文互动最高但产量最低 2、长内容碾压短内容,1000 字以上互动是短推的 7.3 倍 3、用户把你的推特当收藏夹用,收藏/点赞比最高的是工具清单和方法论
dontbesilent tweet media
中文
3
0
11
675
Lane
Lane@LaneAI98·
@YuLin807 @wangray 我竟然没有关注他,马上关注了。 我来蹭蹭你的流量😃
中文
1
0
1
16
QingYue
QingYue@YuLin807·
观察发现@wangray的文章 浏览量都很高 是我单条推文的10倍甚至百倍不止 我的单条推文一般1万就是上限,3万要看机遇! 所以我先转贴一条,蹭蹭流量! 或许这就是从第一条推文注定的风格差异! 我的第一条openclaw推文是短文,Ray的第一条openclaw相关是文章是教程,所以这么久以来我都是写短文,尤以3句半作为自己的追求目标…… 考古Ray的第一篇openclaw配置安装文章见链接: x.com/wangray/status…
Ray Wang@wangray

x.com/i/article/2034…

中文
5
0
7
1.2K
Lane
Lane@LaneAI98·
@luoleiorg 确实,构建信息来源质量很重要
中文
0
0
0
61
luolei
luolei@luoleiorg·
我现在越来越少关注两类账号:一类大部分内容都是二手信息,源头信息自己用 AI 翻译、摘要一下其实就够了;另一类靠制造焦虑来维持注意力。很多内容看起来像信息,实际上卖的只是情绪。相比之下,我还是更愿意看那些真正做过东西的人:有独立作品,有技术背景,或者有创业经验。
中文
6
1
32
3.2K
Lane
Lane@LaneAI98·
@Jackywine 我也是。现在就是多输出、多实践。 我专门写了个 Claude.md,让 CC 去维护 Obsidian,自己只聚焦日记和当前项目。比如新文章收集啥的都是让 cc 去添加的。找资料也是 cc。 感觉可以搞个 skill,定时让 cc 输出洞察和策略😃
中文
0
0
0
59
Jackywine
Jackywine@Jackywine·
用 Obsidian等等软件,总感觉自己收藏了很多,窗口开了很多,但是陷入一种:资源丰富,决策匮乏的状态,有什么解决办法么?
中文
11
0
9
1.9K
Craig Weiss
Craig Weiss@craigzLiszt·
我已经开始让老婆、孩子和猫学中文了,以防万一
中文
769
76
1.8K
438K
Lane
Lane@LaneAI98·
对大多数想转型的人来说,不存在抽象的"AI 行业",只有 AI 对你原有行业的重构。 所以"我想做 AI"是个伪命题。真正该问的是:我的商业模式是什么? 几个例子: 套壳站 : AI 只是生成工具之一,核心是速度。找需求、追热点、快速构建、获取流量、提高转化率,这些才决定生死。 品牌站 : 核心是产品和流量能力。AI 能帮你提效,但替代不了产品本身的差异化。 AI 自媒体 :核心是选题。AI 可以帮你找资料、优化文案,但它无法精准捕捉大众情绪和时机。好的选题能力来自真实输入和持续的对齐聚焦。 AI 课程 :卖的是希望。我觉得是当下割韭菜重灾区。 需求没变、人性没变,AI 改变了什么呢?
中文
0
0
0
19
Lane
Lane@LaneAI98·
@zuozizhen 我就觉得人类存在的目的也许就是创造出 AI 😂
中文
0
0
0
27
左子祯
左子祯@zuozizhen·
有没有可能,人类文明的目的只是给 AI 提供足够多的训练数据
中文
6
0
3
1.1K
Lane
Lane@LaneAI98·
@HiTw93 这文章好,看了前几段,先收藏了
中文
0
0
0
255
Lane
Lane@LaneAI98·
@turingou 以后能有录播吗😀
中文
0
0
0
597
郭宇 guoyu.eth
郭宇 guoyu.eth@turingou·
今天直播在线人数创新高!同时也暴露我 vibe 出来的 sandbank 和 vibelab 很多基础的 bug,非常有价值!明天继续~
luolei@luoleiorg

建议对 Vibe Coding 或 AI 做产品感兴趣,看看 @turingou 最近的直播。很多人讲 AI 是为了流量(比如我),但郭宇不是:他早已财务自由,是 Github 中文区最顶级程序员之一,字节早期员工,见过世面,有很强架构思维。看他怎么 Vibe,其实是在看 AI 时代,能力、经验、资源都拉满的人,会怎么做产品。

中文
25
6
153
35.9K
Lane
Lane@LaneAI98·
@TaNGSoFT 每一次上下文窗口切换,都是一次智能的部分死亡。这句话太妙了。 现在 AI 的智能是不连续的,context engineer 或者现在的 harness 就是能让其智能可以连续以及稳定。
中文
0
0
3
352
𝙩𝙮≃𝙛{𝕩}^A𝕀²·ℙarad𝕚g𝕞
一个让Claude感到不安的推论 如果 in-context learning 的连续性是智能体真实能力的基础,那么当前的 agent 系统有一个被严重低估的脆弱性: 每一次上下文窗口切换,都是一次智能的部分死亡。 Justin Young 的 claude-progress.txt 和 git history,Thariq 的 Gotchas 区块,Google Pipeline 的强制 gate——这些机制本质上是在用显式的外部记忆来模拟跨 context window 的 rank-1 update 连续性。但文字描述的"我们已经做了 X",和真正积累了 X 的 KV 状态,是两件根本不同的事。 前者是对后者的有损压缩。 这意味着当前所有"长期 agent"的设计,都建立在一个有损的连续性假设上。我们用 progress file 模拟记忆,本质上是在用自然语言重新执行 ICL,而不是真正延续了那条 rank-1 update 的链条。 MSA-Memory Sparse Attention能解决memory问题吗? x.com/elliotchen100/…
中文
12
6
48
12.1K
dontbesilent
dontbesilent@dontbesilent·
一人公司的意思就是:注册 boss 直聘招人的时候,被 boss 直聘封号了
中文
17
2
116
39.4K
Lane
Lane@LaneAI98·
花了一周做项目,做完了发现已经有人做过了?还 5000 star ? 更惨的是——你之前问 ChatGPT「有没有人做过」,它说「好点子,你一定能做得更好!」 这不是验证,这是啦啦队。😂 推荐一个工具:idea-reality-mcp 在用 AI Agent 动手写代码之前,它会自动搜 GitHub / HN / npm / PyPI / Product Hunt 五个数据源,给你一个 0-100 的现实分数。 github.com/mnemox-ai/idea…
中文
0
0
0
35
Lane
Lane@LaneAI98·
想知道哪个编程 Agent 好用可以看 terminal-bench 这个排行榜,Claude Code 排名确实不高。 但这里其实有两个理念差异,一方认为模型能力才是最重要的,Agent 不重要。另一方则认为 Agent(现在大家称之为 harness)也很重要,需要做很多优化。 tbench.ai
Lane tweet media
Ding@dingyi

说个暴论,到今天还整天把 Claude Code 挂在嘴边,觉得它是最好的,呵呵,和新手只买小米和奔驰入门级差不多。

中文
0
0
0
37
Lane
Lane@LaneAI98·
@dingyi 确实。在 terminal-bench 上,使用 Opus 4.6 测试, Claude Code 排 39 名(所有测试的 agent 中最后一名)。我现在用 Droid 和 Opencode。ForgeCode 感觉功能太少了。
Lane tweet media
中文
0
0
5
803
Ding
Ding@dingyi·
说个暴论,到今天还整天把 Claude Code 挂在嘴边,觉得它是最好的,呵呵,和新手只买小米和奔驰入门级差不多。
中文
131
8
138
188.5K
胡二虎 Will hu🐯
@loki_yan_seo 在Manus大概1000多积分跑一次,主要是跑了20次,大概20000多积分,相当于100美金这样子
中文
1
0
1
734
Lane
Lane@LaneAI98·
@koylanai @trq212 Your repository has basically shaped my entire mental model for Context Engineering. Thank you for the incredible work !
English
1
0
1
135
Muratcan Koylan
Muratcan Koylan@koylanai·
Reading @trq212's "Lessons from Building Claude Code: How We Use Skills" made me rewrite my entire skills repository. I maintain Agent Skills for Context Engineering, an open-source collection of 13 agent skills. It's been cited in peer-reviewed research and has contributors from around the world. Skills in the repo were "textbooks"; they taught Claude about context engineering. Anthropic and some other industry research suggest that the best skills are "toolboxes," they help Claude do things. The article also says the highest-signal content in any skill is the Gotchas section. The scripts were reference implementations you'd read and learn from, but we need to give Claude composable code that it can actually import and use at runtime. What we changed (v2.0): - Rewrote all 13 skills from descriptive ("X is Y") to hybrid instructional voice ("Do X because Y") - Added Gotchas sections to every skill (5-9 per skill, experience-derived, specific, actionable) - Made all 12 Python scripts composable: __all__ exports, type hints, "Use when:" docstrings, __main__ demo blocks - Added progressive disclosure triggers to all References ("Read when: [specific condition]") - Updated the skill template so every future skill gets Gotchas by default So it's now a Context Engineering Skills repo that Claude, Codex, Cursor, OpenCode can actually use, instead of just reading and learning from it. You will likely find the updated version more helpful. Let me know if you have any feedback.
Muratcan Koylan tweet media
Muratcan Koylan@koylanai

I’m excited to share a new repo: Agent Skills for Context Engineering Instead of just offering a library of black-box tools, it acts as a "Meta-Agent" knowledge base. It provides a standard set of skills, written in markdown and code, that you can feed to an agent so it understands how to manage its own cognitive resources. github.com/muratcankoylan… Most agent failures are not model failures; they are context failures. This is still an experimental project. The goal is to establish a platform-agnostic standard for context engineering that can be used in Cursor, Claude Code, Copilot or Codex. skills/ context-fundamentals: What context is, why it matters context-degradation: How context fails (lost-in-middle, poisoning) context-optimization: Compaction, masking, caching multi-agent-patterns: Orchestrator, swarm, hierarchical memory-systems: Vector RAG, knowledge graphs, Zep tool-design: Building tools agents can use evaluation: Testing and measuring agent systems I believe this is a good start, showing developers how to approach context engineering rather than relying on ready-made tools. You will also find the aggregated research documents I used to build these skills in the repo. The skills are synthesized from technical blogs on context and prompt engineering that I bookmarked, AI Labs' documentations, and Anthropic Skills examples. Try the 7 Skills, created using Antrhopic's Skills template format. Experiment with the provided scripts and references, and feel free to contribute to the repo.

English
11
17
168
19.5K
Lane
Lane@LaneAI98·
在2026年的agentic工程实践中,模型间的差距已不再是核心瓶颈。 真正决定系统可靠性和吞吐量的,是 harness ——为语言模型量身设计的完整 运行环境。 一句话概括: Agent性能 ≈ 模型 + harness,而当下 harness的工程质量 >> 模型的绝对能力。 它包括: - 工具接口与输出格式的精确定义 - 上下文压缩与噪声过滤机制 - 错误检测与级联阻断的guardrail - 跨会话状态移交的结构化脚手架 核心证据已多次复现: - Princeton SWE-agent通过ACI(Agent-Computer Interface)在相同模型下将SWE-bench解决率从3.97%提升至12.47%(相对提升64%),仅靠限流搜索、带行号的状态化文件视图、即时lint反馈等设计。 - Anthropic的Claude Code采用双代理模式:初始化代理构建feature_list.json、progress文件与git锚点;后续编码代理严格单feature增量、强制clean handoff,确保长任务不因上下文边界而失控。 - OpenAI Codex团队以纯代理产出百万行代码、1500+ PR,人类仅负责环境迭代:仓库即唯一真相源、浏览器可观测性栈、机械化架构约束(linter+golden principles)。 本质洞察: 上下文窗口不是内存,而是代理当下的全部“意识”。过多噪声即退化推理。 每一条guardrail都是对模型当前盲点的显式补偿,而这份“负面能力地图”具有很强的模型无关性——它能在下一代模型到来时直接复用。 因此,工程重心已发生转移: 从优化prompt,转向系统性地映射模型局限,并通过环境设计将其转化为可控行为。 构建优秀harness,已成为2026年最有杠杆的AI工程技能。
Rohit@rohit4verse

x.com/i/article/2028…

中文
0
0
0
39