Stephan

1.4K posts

Stephan banner
Stephan

Stephan

@Stephan_Talk

后端技术专家 | Learn to build with AI | 热爱开源精神 | 分享最前沿AI资讯,以及我的深度思考和实践

Katılım Mayıs 2011
201 Takip Edilen2.9K Takipçiler
Sabitlenmiş Tweet
Stephan
Stephan@Stephan_Talk·
Claude Code 正在重构Agent系统的开发模式! Claude Code远不仅仅是一个AI编程工具,它是一套可高度定制的Agent系统 它和LangGraph这类Agent框架最大的区别是,Claude Code本身就是一个自主选择执行路径的智能体 而Claude Code SDK干的事情,就是把这个智能体的全部能力封装成SDK,使应用内可以集成Claude Code,同时也就集成了: 1. 各种自定义prompt、memory、subagents 2. 各种tools和MCP的自动调用能力 3. 所有Claude Code可用的底层模型 当你拥有一个足够强大的agent core,你就不用再用代码的方式来"编排"agent的行为,而是提供一套自定义MCP Server给它,然后用prompt来"编排"agent的行为 举个例子,在LangGraph时代: 有一个小朋友,你送了他一套乐高玩具,但小朋友不够聪明,你需要手把手的教他怎么玩这套乐高玩具。这就是通过代码来“编排”agent系统 现在,有了Claude Code SDK: 这个小朋友现在长大些了,你再送他一套乐高玩具,然后你跟他说:“造个变形金刚出来”,他自己鼓捣鼓捣就搞出来了 以后,你再也不需要教小朋友怎么玩玩具了,只要造足够多的乐高送给他们就可以了 #ClaudeCode #ClaudeCodeSDK
中文
8
17
103
35.9K
Stephan
Stephan@Stephan_Talk·
分享一下,zlibrary的免费捐书计划,可以把自己不看的纸质书免费寄给他们,邮费自付。他们会负责统筹登记。这些书如果能捐给贫困学生,或者有需要的人,那也是善莫大焉。回头我搬家的时候也寄一些。感谢志愿者的无私付出🙏
朱无忌无忌@Wujizhuzhu

@Pandatalk8 的的帖子,展开说一说Zlibrary。 Zlibrary有个Z-Points计划,就是大家可以将不用的书,免费寄送到Z-Points站点。 我是北京站的Z-Points,至今已服务了两年。 最开始,我其实对这个计划存疑。不用的书,很多人直接当废品卖掉了。很少有人愿意花邮费将书籍寄送到Z-Points来。 但事实上,过去两年,我差不多收到了两百多本书,全国各地的快递都有收到过。非常感谢大家对Z-Points的支持。 另外也想替Zlibrary多说两句。如果大家有不看的书,或者不需要的书籍,可以寄送给我,我会上传到Zlibrary网站上面去,供全球的读者阅读。 我觉得这是一个非常幸福的工作,完全义务服务。当然,我也愿意继续为Zlibrary服务下去。

中文
0
0
2
662
Stephan
Stephan@Stephan_Talk·
转发,作为用户理性分析,确实难用。因为我也是曾经的用户,就是被宝玉老师说的这几点劝退了 另外,没必要搬出其他友商的产品来证明难用的合理性。这就好像我说你是预制菜不好吃,你说全行业都是预制菜。这个逻辑真的醉了😅
中文
0
0
2
2.7K
Stephan
Stephan@Stephan_Talk·
看完了老罗采访周鸿祎的三个半小时的播客,能听出来老周是确实有很多切实的行业经验的,可惜老罗问的问题不够深入和专业,有点遗憾 比如老罗说到海外顶尖模型是gemini这个观点,我觉得是有些偏颇了。因为不同领域有不同的最佳模型,比如在编程领域目前claude-4和gpt-5-codex可能都优于gemini;又比如老周不止一次提到的LLM幻觉问题,在360是如何优化的?并没有追问下去 听完整体感觉最有价值的点就是老周说到的垂直+订阅的收费模式,老周还提到收费模式上应该是token按量计费+membership会员费的方式,这种方式确实是一种长期看更可行的收费模式。单纯卖token的模式壁垒太低,用户付费的动机应该是在LLM之上,产品提供的垂直Agent的能力
中文
1
0
1
840
Stephan
Stephan@Stephan_Talk·
看着看着老周突然跳出来这么一句话:“推荐一个人,在推特上有个自然语言处理界的马东锡”,说明老周确实是在紧跟AI领域的前沿知识的 具体时间点在 2:01:10 左右提到了 @dongxi_nlp 马老师
马东锡 NLP@dongxi_nlp

太惊喜了,在罗永浩和周鸿祎的对谈中,发现了我自己被提到。约等于上罗老师的节目了! 网上有一个人,叫 马东锡 NLP , 你可以交一下这个朋友! 开心!

中文
0
0
2
827
马东锡 NLP
马东锡 NLP@dongxi_nlp·
太惊喜了,在罗永浩和周鸿祎的对谈中,发现了我自己被提到。约等于上罗老师的节目了! 网上有一个人,叫 马东锡 NLP , 你可以交一下这个朋友! 开心!
马东锡 NLP tweet media
中文
283
56
1.8K
876.3K
Stephan
Stephan@Stephan_Talk·
扩展一下,不仅openrouter,只要是符合OpenAI协议规范的模型提供商,都可以通过以上方式配置进 ~/.codex/config.toml 配置文件,可以配置多个 [model_providers.xxx] 和 [profiles.xxx] 段落到配置文件中,然后把 profile = "openrouter" 改为你希望默认指向的profile段落即可 这个配置文件的官方文档: github.com/openai/codex/b…
中文
0
0
4
1.6K
Stephan
Stephan@Stephan_Talk·
分享一下如何配置OpenAI Codex接入OpenRouter的任意模型 Codex可以通过修改配置文件的方式改变默认使用的模型及模型提供方,只需要两步👇 1⃣修改 ~/.codex/config.toml 配置文件,增加如下配置: profile = "openrouter" [model_providers.openrouter] name = "OpenRouter" base_url = "openrouter.ai/api/v1" env_key = "OPENROUTER_API_KEY" wire_api = "chat" [profiles.openrouter] model = "openai/gpt-5-codex" model_provider = "openrouter" model_reasoning_effort = "high" 注意这里的 model="xxx" 定义,可以配置任意支持推理的openrouter模型 2⃣在环境变量中增加OPENROUTER_API_KEY: export OPENROUTER_API_KEY="你的OpenRouter API KEY" 启动 codex 即可看到,model已经指向配置文件中的模型:
Stephan tweet media
中文
5
34
186
21.8K
Stephan
Stephan@Stephan_Talk·
以下是 yupp 的官方链接: yupp.ai
中文
0
0
1
189
Stephan
Stephan@Stephan_Talk·
yupp 这个网站有点意思,它能免费使用和对比最领先的AI模型 在 yupp 上的每次对话都有至少两个AI大模型同时给你回答,你可以从其中选择你认为更好的回答,并分享你的使用反馈给yupp 用户反馈可以获得积分,更优质的反馈可以获取更多积分,更多积分意味着你可以使用更多高级模型,甚至将积分提现 这个网站之所以能免费使用大模型,与它建立的用户反馈机制直接相关。这些反馈数据会提供给模型厂商用来优化模型 这个商业模式之所以可行,我认为是因为大模型的token价格会越来越低,而用户真实反馈会更有价值,尤其是跨厂商的比较。对于模型厂商来说用token换用户反馈是很划算的买卖 另一方面对于用户来说,现在模型太多,在不同领域、不同场景下,哪个模型表现最好?哪个模型最适合自己的应用场景? yupp 可以帮我们进行免费的比较 目前 yupp 主要支持文本聊天、图像生成、图像理解等场景,看起来编程领域还不是它的主要应用场景
Stephan tweet mediaStephan tweet media
中文
1
0
0
390
Stephan
Stephan@Stephan_Talk·
@sujingshen 另外,NotebookLM有着很不错的召回率和长上下文能力,这对于LLM的幻觉问题是很大的一个补齐,基于此的RAG系统应该会很快诞生
中文
1
0
1
60
Stephan
Stephan@Stephan_Talk·
NotebookLM一直以来都是我最喜欢的知识库预研工具 另外,结合它可以分析Youtube视频的特性,在其API开放后,视频内容可以有更丰富的交互形式了 比如可以做一个针对某个油管课程的NotebookLM知识库,这种能力可以泛化成一个独立产品了
SagaSu@sujingshen

notebooklm的API开放了。是个机会。 NotebookLM api - Create a notebook - Retrieve a notebook - List recently viewed notebooks - Delete notebooks in batch - Share a notebook - Add data sources to a notebook - Delete data sources from a notebook 信息源:👇

中文
1
0
5
1.2K
Stephan
Stephan@Stephan_Talk·
之前我有些精神洁癖,总喜欢把关注数维持在200以下😅,现在看没太大必要 X最新开源的推荐算法说明,只要关注数<500,或 关注数/粉丝数 的比例小于0.6即可 对于需要添加大量关注的推友,建议关注数不要超过2500,如果必须超过,也要把比值稳定在<0.6 这个算法的目的也很明显,就是惩罚换粉的行为。你的粉丝应该是因为你的优质内容而关注你,而不是无意义的换粉 附图是我在Cursor中基于这份开源仓库的聊天内容,供参考 你想了解哪些X的推荐算法机制,可以评论区告诉我,我可以基于X的开源仓库来回复你
Stephan tweet media
Stephan@Stephan_Talk

X开源了他们的推荐算法,以下是会影响你的账号影响力排名的因素: 1.优先让“高质量账号”关注你 被更多高质量账号关注,权重值更大,且对方"出边"数越少,你得到的份额越足 "出边"指的是每个账号对其他账号的关注及互动强度,可以理解为每个账号是一个图节点,账号之间的关注及互动是节点之间的边 建议:深耕垂直领域,主动合作/互动头部或中腰部优质作者,参与高质量话题与空间 2.争取来自优质账号的“强互动” 被转推/回复/提及时的权重更高;多元互动可拉升你在对方出边上的占比 建议:做可被引用/讨论的内容,发起问答/共创;在热点中输出被引用的“原始资料/观点” 3.控制“关注/粉丝”比,避免触发惩罚阈值 平台对“高关注、低粉丝”的账号会有严重降权,早期尽量让关注数 ≤ 500;中长期尽量远离 2500 上限 建议:维持关注/粉丝比 < 0.6;避免“批量关注换粉” 4.提升账号“先验质量” 蓝V认证能够拿到稳定的10%先验权重,能稳定抬高“随机跳”部分,帮助冷启动与整体稳定性 其他提升先验的手段:绑定有效设备;保持账号安全不受限;平稳运营超过 30 天 5.结构优先于数量 一百个普通新号关注,不如 3–5 个“高质量、低出边”的账号关注更有效 6.内容与节奏 - 聚焦“可被引用/二次传播”的内容形式(数据图解、清单、教程、观点源头) - 固定发布节奏与系列化主题,降低对方关注门槛、提高复访与外链引用概率 避坑清单: 1. 不要大量“先关注后取关”或扫粉;极易触发先验与后处理惩罚 2. 新号前 30 天预期偏低属正常;平稳积累与“精准高质量关注”比短期爆量更有效 3. 若你发现互动很强但排名无明显提升,可能当前作业是“仅关注边、未加权”;这时“被谁关注”更关键 --- 如果你想深入了解X的整体推荐算法原理,以及对内容创作者的最佳实践建议,可以点赞+转发我这条推文,我会私发你一份《X推荐算法深度解析:机制、权重与创作者策略》的1万字DeepResearch报告

中文
0
0
0
512