MaxH

652 posts

MaxH banner
MaxH

MaxH

@Max4FreeSpeech

某高校人工智能学院博士,对未知事物有着强烈的好奇心。秉承“我并不同意你的观点,但是我誓死捍卫你说话的权利。”的观点。

Katılım Kasım 2022
136 Takip Edilen37 Takipçiler
MaxH
MaxH@Max4FreeSpeech·
@YukerX 感谢分享,虽然对Claude Agent SDK 进行过一些功能上的了解,但是对模型调用API还是感到有一些困惑,我能否使用如智谱的GLM4.7用在SDK上?
中文
2
0
1
1.9K
MaxH
MaxH@Max4FreeSpeech·
@Pluvio9yte 不是三个月做一次保号操作吗?
中文
0
0
0
296
雪踏乌云
雪踏乌云@Pluvio9yte·
几个月前买的giffgaf海外电话卡还没到半年保号 就用不了了... 是商家给发了黑卡吗还是什么原因😭
中文
17
0
13
56.6K
MaxH
MaxH@Max4FreeSpeech·
欢迎来到人机共生的纪元。
中文
0
0
0
10
jazzer
jazzer@lijazzer·
@pengchujin 我的网页点击授权之后,客户端没反应
中文
3
0
1
3.1K
酱紫表
酱紫表@pengchujin·
Antigravity 把谷歌关联地区从香港改到新加坡就能登录使用了,如果你也碰到图 3 情况可以用新加坡 IP 然后在这把关联地区改到新加坡。policies.google.com/country-associ…
酱紫表 tweet media酱紫表 tweet media酱紫表 tweet media
中文
19
31
239
63.2K
MaxH
MaxH@Max4FreeSpeech·
@hanson2118 @Blind___Gamer 手机我正常使用的,80%扣扣搜搜用了一年零两个月下来,现在手机电池最大容量已经90%了,循环次数500多次。要说有用吧,可能对电池健康有点用,但是我天天80%过活,一旦出个门不带个充电器就充满焦虑,我也不知道80%意义到底在哪儿。
中文
0
0
0
105
Hanson
Hanson@hanson2118·
@Max4FreeSpeech @Blind___Gamer 你不懂怎么用!设置80%充电限制后,达到80%后,如果还连着充电线,就不用手机里的电池了,这样就不耗手机里电池的电了,相当于架空手机里的电池!所以习惯一直冲着手机的话,内置电池的循环速度大大减少!这在之前的iPhone里是没有的
中文
3
0
1
626
瞎玩菌
瞎玩菌@Blind___Gamer·
确认了,iPhone 充电限制 80% ,对电池健康真的没用
中文
47
13
112
69.9K
MaxH
MaxH@Max4FreeSpeech·
@hanson2118 @Blind___Gamer 有了充电线制,我用了2年多的iPhone 15电池健康度已经升到120%了
中文
2
0
1
599
Hanson
Hanson@hanson2118·
@Blind___Gamer 有了充电线制,我用了2年多的iPhone 15电池健康度还是100%
中文
6
0
4
4K
MaxH
MaxH@Max4FreeSpeech·
@NotionHQ Loving the new meeting transcript features! The only issue is that the transcription costs are still a bit high on our end — hoping we can see lower usage fees in future updates.
English
0
0
0
130
Notion
Notion@NotionHQ·
With Notion 3.0, you met Notion Agent. Now, in 3.1: → your Agent got smarter → meetings have a new home → pages load a little faster What’s new 👇
English
29
33
454
44.7K
tomato
tomato@tree_shine·
@st7evechou 最大问题是键盘油会印在屏幕上
中文
1
0
0
276
𝗦𝘁𝗲𝘃𝗲 𝕏
𝗦𝘁𝗲𝘃𝗲 𝕏@st7evechou·
MBP 键盘打油真的太难受了,有什么好的解决方法吗。 现在基本都是用酒精湿巾擦一下。
中文
11
0
1
7.3K
MaxH retweetledi
Sumanth
Sumanth@Sumanth_077·
Turn PDF files into clean, LLM-ready data! ByteDance released Dolphin, a document parsing framework that converts PDFs into structured formats like Markdown, HTML, LaTeX, and JSON. 100% Open Source
Sumanth tweet media
English
59
538
3.6K
275.7K
MaxH retweetledi
GitHubDaily
GitHubDaily@GitHub_Daily·
在 GitHub 上看到一份学习 RAG(检索增强生成)比较好的教程:arxiv-paper-curator,通过 6 周时间带着我们用从零构建一个完整的生产级 RAG 系统「arXiv 论文精选器」。 采用循序渐进的教学方式,从基础设施搭建开始,逐步覆盖数据管道、关键词搜索、混合检索、LLM 集成,最终实现生产级监控和缓存优化。 GitHub:github.com/jamwithai/arxi… 主要内容: - 第 1 周:使用 Docker、FastAPI、PostgreSQL 等搭建完整基础设施; - 第 2 周:构建自动化数据管道,从 arXiv 获取和解析学术论文; - 第 3 周:实现 BM25 关键词搜索,掌握搜索系统的坚实基础; - 第 4 周:智能文档分块和混合检索,结合关键词与语义理解; - 第 5 周:集成本地 LLM 完成完整 RAG 流水线,支持流式响应; - 第 6 周:生产级监控与缓存优化,实现 150-400 倍性能提升。 每周都有详细的 Jupyter 笔记本指导和博客文章深度解析,有需要的同学可以学习看看。
GitHubDaily tweet media
中文
12
104
374
32.5K
MaxH retweetledi
GitHubDaily
GitHubDaily@GitHub_Daily·
做学术研究经常会在各种平台上搜索论文,如 arXiv、PubMed、Google Scholar 等,然后收集整理素材,频繁来回切换,过程颇为繁琐。 可以尝试一下,Paper Search MCP 这个 MCP 服务器,它能让我们直接在 AI 助手搜索和下载学术论文。 支持多个主流学术平台的统一搜索,还能自动下载 PDF 文件,让文献调研变得更加高效。 GitHub:github.com/openags/paper-… 主要功能: - 支持 arXiv、PubMed、bioRxiv、Google Scholar 等多平台搜索 - 一键下载论文 PDF,无需手动操作 - 统一的论文信息格式,便于整理和管理 - 异步处理网络请求,搜索速度更快 - 可自行扩展,支持添加新的学术平台 通过 uv 或 pip 安装后,再配置到 Claude Desktop、Cursor 等 AI 工具即可使用。
GitHubDaily tweet media
中文
1
52
172
14.2K
Baye
Baye@waylybaye·
AI 写的每行代码我都会 Review,不得不说,现在的 AI 在一些简单的任务中写的代码质量已经超过实习生和新手程序员了。
中文
14
1
186
71.9K
MaxH retweetledi
ahhhhfs
ahhhhfs@abskoop·
🎙️播客变文字只需一键!开源AI工具让转录&总结更轻松 AI播客提取器 :AI Podcast Transcriber 👉ahhhhfs.com/75188/ #Podcast #AItools #AI生产力
ahhhhfs tweet media
中文
21
33
129
34.2K
MaxH retweetledi
宝玉
宝玉@dotey·
吴恩达老师:想让 AI 更强大,我们该往哪儿走?一个令人兴奋的新方向正浮出水面:并行智能体 (Parallel agents)。 一直以来,提升 AI 能力主要靠三驾马车:更多的训练数据、更强的训练算力,以及更强的推理阶段算力 (test-time compute)。如今,让多个 AI 智能体 (AI Agent) 并肩作战,正成为一种扩展 AI 能力、提升性能的新浪潮。 我们早就发现一个规律——这在我之前在百度带的团队和后来的 OpenAI 的工作中都得到了验证——那就是 AI 模型的性能,会随着数据量和训练算力的投入而稳步提升。如果你再让 AI 在推理(也就是解决问题)的时候多花点“力气”,比如让它像人一样思考、反思、迭代答案,它的表现还会更上一层楼。但问题是,这些方法会让用户等太久。而并行智能体,恰恰为我们提供了另一条路:既能提升结果质量,又不用牺牲用户的时间。 推理模型生成内容时,是一个字一个字往外蹦的,所以运行起来可能很慢。同样,大多数的智能体工作流 (agentic workflows) 一开始也是按顺序一步步执行的。但现在情况变了:一方面,大语言模型 (LLM) 每个 token 的价格持续跳水,让这些“大力出奇迹”的方法在经济上变得可行;另一方面,产品团队也希望更快地给用户呈现结果。于是,越来越多的智能体工作流开始被并行化。 这里有几个例子: 现在很多做研究的智能体,会同时抓取多个网页并并行阅读,从而更快地综合信息,写出富有洞察力的深度研究报告。 一些智能体编程框架,允许用户指挥多个智能体同时在同一个代码库的不同部分上工作。我们在关于 Claude Code 的短期课程中,就展示了如何使用 git worktree 来实现这一点。1 在智能体工作流中,一个迅速流行的设计模式是:让一个“劳工”智能体在后台花几分钟甚至更长时间去处理一项重度计算任务,同时派另一个“监工”智能体在前台不断向用户汇报简短的进度,让他们随时了解情况。从这个模式再往前走一小步,就演变成了多个智能体在后台埋头苦干,而一个“UI 智能体”则负责与用户沟通,甚至还能将用户的异步反馈传递给后台的“同事们”。 对于人类管理者来说,要把一个像“开发一款复杂软件”这样的艰巨任务,拆解成能让工程师们并行处理的小任务,是一件非常困难的事;想让成百上千名工程师高效协作,更是难上加难。同样,如何为并行的 AI 智能体们“拆解任务”,也极具挑战。但好在,大语言模型推理成本的降低,让我们有底气用上“人海战术”。通过并行处理,我们可以消耗海量的 token 来换取更好的结果,同时又不会显著增加用户的等待时间。 看到学术界也在积极探索这个方向,我备受鼓舞。例如,我最近读到一篇由 Ryan Ehrlich 等人撰写的论文《CodeMonkeys:扩展软件工程中的推理阶段算力》,读来津津有味。它展示了并行生成代码如何帮助你探索更广阔的解决方案空间。而王俊林(Junlin Wang)提出的多智能体混合 (mixture-of-agents) 架构,其组织并行智能体的方式简单得出奇:让多个大语言模型针对同一个问题给出不同的答案,再派出一个“总管”大语言模型,将这些答案博采众长,融合成最终的输出。 当然,如何才能最好地利用并行智能体,还有大量的研究和工程问题等待我们去探索。但我坚信,未来能够高效协作的智能体的数量——就像能够高效协作的人类一样——将会是一个非常、非常庞大的数字。
Andrew Ng@AndrewYNg

Parallel agents are emerging as an important new direction for scaling up AI. AI capabilities have scaled with more training data, training-time compute, and test-time compute. Having multiple agents run in parallel is growing as a technique to further scale and improve performance. We know from work at Baidu by my former team, and later OpenAI, that AI models’ performance scales predictably with the amount of data and training computation. Performance rises further with test-time compute such as in agentic workflows and in reasoning models that think, reflect, and iterate on an answer. But these methods take longer to produce output. Agents working in parallel offer another path to improve results, without making users wait. Reasoning models generate tokens sequentially and can take a long time to run. Similarly, most agentic workflows are initially implemented in a sequential way. But as LLM prices per token continue to fall — thus making these techniques practical — and product teams want to deliver results to users faster, more and more agentic workflows are being parallelized. Some examples: - Many research agents now fetch multiple web pages and examine their texts in parallel to try to synthesize deeply thoughtful research reports more quickly. - Some agentic coding frameworks allow users to orchestrate many agents working simultaneously on different parts of a code base. Our short course on Claude Code shows how to do this using git worktrees. - A rapidly growing design pattern for agentic workflows is to have a compute-heavy agent work for minutes or longer to accomplish a task, while another agent monitors the first and gives brief updates to the user to keep them informed. From here, it’s a short hop to parallel agents that work in the background while the UI agent keeps users informed and perhaps also routes asynchronous user feedback to the other agents. It is difficult for a human manager to take a complex task (like building a complex software application) and break it down into smaller tasks for human engineers to work on in parallel; scaling to huge numbers of engineers is especially challenging. Similarly, it is also challenging to decompose tasks for parallel agents to carry out. But the falling cost of LLM inference makes it worthwhile to use a lot more tokens, and using them in parallel allows this to be done without significantly increasing the user’s waiting time. I am also encouraged by the growing body of research on parallel agents. For example, I enjoyed reading “CodeMonkeys: Scaling Test-Time Compute for Software Engineering” by Ryan Ehrlich and others, which shows how parallel code generation helps you to explore the solution space. The mixture-of-agents architecture by Junlin Wang is a surprisingly simple way to organize parallel agents: Have multiple LLMs come up with different answers, then have an aggregator LLM combine them into the final output. There remains a lot of research as well as engineering to explore how best to leverage parallel agents, and I believe the number of agents that can work productively in parallel — like the humans who can work productively in parallel — will be very high. [Original text, with links: deeplearning.ai/the-batch/issu… ]

中文
15
29
165
49.8K
MaxH
MaxH@Max4FreeSpeech·
@yuashwe 别说,胡彦斌唱的还真不错。
中文
0
0
1
40
老多
老多@yuashwe·
看到这个广告,刚开始穿黑衣的瞬间,一下子没认出来是谁,真是越老越好看了
中文
117
17
273
110.2K
AIGCLINK
AIGCLINK@aigclink·
酷,在Claude Code里给Gemini CLI套一个子智能体外壳,把大型代码库分析任务丢给Gemini的百万token窗口,既省Claude额度,又能拿到高质量结果 核心是利用不同模型优势来完成特定任务,大代码扫描用 Gemini,不耗Claude token, 并且IDE内一键完成,结果直接可读 子智能体自身不执行分析,只需管理Gemini CLI的输入和输出 整个教程演示了如何: 在Claude Code里新建一个子智能体 把这个子智能体配置成Gemini CLI包装器 用一句自然语言指令让Gemini扫描整个代码库 把Gemini的结果返回Claude,节省时间和token 教程把整套流程、示例命令和注意事项都列出来了,按图索骥来复现 #AI编程助手 #GeminiCLI #ClaudeCode
AIGCLINK tweet media
中文
12
66
363
62.6K
MaxH
MaxH@Max4FreeSpeech·
用了快五年的LLM,突然感悟与LLMs对话能训练与人沟通的能力:我发现手下员工每次向我汇报我都感觉很难受,一个问题直接丢过来。而我每次向老板汇报,都先把问题描述清楚,然后给出自己的几个方案让领导进行决策。这个习惯完全是平时和LLM对话要给出清晰上下文信息并限制其回答的空间得到的。
中文
0
0
0
25
宝玉
宝玉@dotey·
好奇梁博说的这个模型是哪家的?
宝玉 tweet media
中文
97
30
306
211.4K
MaxH
MaxH@Max4FreeSpeech·
@howie_serious @iamnanyi 最好别用pockyshop了,我的将近十年的号,就是在pockyshop充值被封的,现在养号只敢用Apple Store官网购买gift card了。
中文
0
0
0
227
howie.serious
howie.serious@howie_serious·
@iamnanyi 我用的支付宝 pockytshop,没问题。apple 官网也可以买,但麻烦些。
中文
5
2
23
9.4K
howie.serious
howie.serious@howie_serious·
订阅 chatgpt 最稳定最简单最方便的方式,难道不是:美区 id➕支付宝购买礼品卡充值? 这种方式用好几年了,没遇到过问题。 每个人都应该考虑注册一个美区 id(半小时?),然后好好“养”这个 id,甚至考虑把美区 apple id 作为主力,国区 apple id 作为辅助。 我们家,也还一人一个美区 id,这样,每个人订阅自己的 chatgpt pro/plus🤣
Joe@LuckyJoe198x

兄弟们,野卡在线的客服都找不到了,不敢用了,除了野卡之外,还有啥卡能订阅ChatGPT的,求推荐,谢谢。

中文
105
80
552
304.3K