DataLearner

1.1K posts

DataLearner banner
DataLearner

DataLearner

@DataLearnerAI

关注数据科学 关注科技行业 关注人工智能 关注一切促进人类生活美好的新技术 业界主流大模型列表:https://t.co/H4FUDd7Gfb 国产开源大模型生态现状:https://t.co/q5KU9WhPuE

Hefei, China Присоединился Mart 2023
751 Подписки527 Подписчики
Закреплённый твит
DataLearner
DataLearner@DataLearnerAI·
Grok新版本(Grok-4.2)终于发布了,看起来好像是默认有多个角色共同思考。只是老马啊,你这个模型的智力似乎不太够啊,跳票了这么久给了这个玩意?离家50米的洗车店走过去合适吗???另外它好像很喜欢搜索,如果不加上“不搜索互联网”,它基本都去搜,而且似乎对自己的版本号也不是很清晰。不过它的网页风格还挺不错的,感觉和几家大模型都不一样。
DataLearner tweet mediaDataLearner tweet mediaDataLearner tweet mediaDataLearner tweet media
中文
1
0
3
786
DataLearner
DataLearner@DataLearnerAI·
这是我们对GPT-5.4奇葩的UI审美最无奈的抗议
DataLearner tweet media
中文
0
0
0
59
DataLearner
DataLearner@DataLearnerAI·
转 前谷歌做大模型的一线人员😋
#endif@caterpillarous

解除了锁推,因为从Google辞职了不用再害怕吐槽同事被发现了 现在创业中求求大家关注 @__endif 吧,起号好难 正式的吹牛是: - 我从23年开始做LLM coding,领导了内部最初的coding agent,并在24年I/O成为了Google第一个正式发布的coding agent - LLM方面我从Palm开始贡献,一直到Gemini 3.0 - 写过Gemini technical report,被邀请到巴西去第一届AIWare讲过agent,发过Google developer blog,给Google Jules发过专利 - 读过博士项目退过学,做过程序分析,报过CVE 之前的各种胡言乱语都写在 idle.systems 了,因为可以搞个有趣的邮箱叫做 process@idle.systems 求转发啊啊啊啊我tm要起号

中文
0
0
1
119
DataLearner
DataLearner@DataLearnerAI·
看起来Claude Code很快就会转变成一人公司的IT基础设施了。不管你会不会编程,其实都无所谓,你只要有idea,就可以让Claude Code实现,实现完成之后甚至可能能直接部署上架服务了,完全无需在意如何落地了感觉~
AprilNEA@AprilNEA

在 Claude Code 的虚拟机里,我们发现了什么 起点 我们对 Claude Code 运行环境做了一次完整的逆向工程。起点很简单:用 strace 追踪 PID 1,然后顺藤摸瓜。 运行环境 Claude Code 跑在 Firecracker MicroVM 里——这是 AWS 开源的轻量虚拟机,Lambda 和 Fargate 底层用的就是它。证据是 ACPI 表里写死的 OEM ID FIRECK`。整个虚拟机极其精简:4核 CPU、16GB 内存、252GB 磁盘,没有 systemd,没有 sshd,没有 cron,PID 1 是一个自研的 `/process_api ` 二进制,同时充当 init 进程和 WebSocket API 网关。 关键发现:environment-runner 虚拟机里有一个 27MB 的 Go 二进制 `/usr/local/bin/environment-runner`,没有做 strip,保留了完整的调试信息和符号表。源码路径指向 github[.]com/anthropics/anthropic/api-go/environment-manager/——这是 Anthropic 内部的私有仓库。 通过 go tool objdump`、`strings`、`objdump `等工具,我们从中提取出了完整的包结构、所有函数签名、嵌入资源和关键字符串。 三个重大发现 1. Antspace —— Anthropic 自建的 PaaS 平台 在部署模块中,我们发现了两个部署目标:公开的 Vercel 和完全未公开的 Antspace。Antspace 拥有完整的部署协议(创建部署 → 上传 tar.gz → 流式状态推送),有独立的控制面 URL 和认证体系。互联网上关于它的公开信息为零。 命名来源推测:"Ant"是 Anthropic 员工的内部昵称(他们拥有域名 ant[.]dev)。 2. Baku —— Claude 网页版应用构建器的内部代号 当你在 claude[.]ai 上让 Claude "帮我做一个网页应用"时,后台启动的就是 Baku 环境。它预装了 Vite + React + TypeScript 模板,自动配置 Supabase 数据库(含 6 个 MCP 工具:查询、迁移、类型生成、Edge Function 部署等),构建完成后默认部署到 Antspace。 3. BYOC —— 自带容器的企业部署模式 environment-runner 支持两种环境类型:`anthropic`(Anthropic 托管)和 `byoc`(Bring Your Own Cloud,客户自己的基础设施)。这意味着企业客户可以在自己的 Kubernetes 集群里运行 Claude Code 的完整环境,而会话编排仍由 Anthropic API 控制。 战略含义:Anthropic 正在构建一个从 AI 模型到应用托管的完整闭环: 用户用自然语言描述需求 → Claude 在 Baku 环境中生成应用代码 → 自动配置 Supabase 数据库 → 一键部署到 Antspace → 应用上线,用户全程不离开 Anthropic 生态 这不只是一个 AI 编程助手,而是一个 AI 原生的 PaaS 平台的雏形。它的竞争对手不仅是 Cursor 和 GitHub Copilot,更是 Vercel、Netlify、Replit、Lovable 和 Bolt。而 Anthropic 的独特优势在于:他们拥有从大模型到运行时到部署平台的完整垂直整合,这是目前任何竞品都不具备的。 方法论:全部发现来自对一个未 strip 的 Go 二进制的静态分析和运行时追踪。没有任何网络攻击、权限提升或越权操作——这个二进制就在虚拟机里,带着完整的符号表,等着被读取。 #ReverseEngineering #Anthropic #ClaudeCode #Firecracker #PaaS #AI fixupx.com/AprilNEA/statu…

中文
0
0
1
179
DataLearner
DataLearner@DataLearnerAI·
OpenRouter上的神秘模型Hunter Alpha的调用量进入了OpenRouter前10了,在OpenClaw的调用测试中超过了此前智谱的GLM5,分数接近Opus 4.6~这个模型上下文105万,最大输出32K。MiniMax 2.5最大输出196K,GLM最大输出128K,DeepSeek V3.2的推理模式默认输出32K,莫非是DeepSeek V4?
DataLearner tweet media
OpenRouter@OpenRouter

The Hunter Alpha stealth model is now in the top 10 weekly:

中文
0
0
2
852
DataLearner
DataLearner@DataLearnerAI·
Anthropic的动作真快啊,Cowork新增Dispatch能力,可以让你在手机上远程遥控桌面版本的Cowork完成一系列工作,然后在手机上通知你。目前是研究预览版本,Max用户可以使用,Pro版本的用户会过几天开始使用。OpenAI现在是模型产品都明显落后的情况啊
Felix Rieseberg@felixrieseberg

We're shipping a new feature in Claude Cowork as a research preview that I'm excited about: Dispatch! One persistent conversation with Claude that runs on your computer. Message it from your phone. Come back to finished work. To try it out, download Claude Desktop, then pair your phone.

中文
0
0
0
184
DataLearner
DataLearner@DataLearnerAI·
Google Antigravity现在的Pro会员额度基本上可以说没啥了。Opus模型一个问题几乎干掉20%可能都不止,而重置时间是6-7天。使用赠送的1000积分,刚才试了,一个问题,改一个前端的柱状图,用掉了139个积分。这么算下来Gemini Pro会员在Antigravity上Opus的额度一个月也就25个问题左右,非常拉跨。Google这波操作也是没谁了。🙃🙃
DataLearner tweet media
中文
0
0
0
253
DataLearner
DataLearner@DataLearnerAI·
对接OpenClaw之后你会更加清晰感觉到GPT-5.2以及之前的模型有多“差劲”,回答的语气很油腻,且agent智能水平不够,如果不说很清楚,基本上是乱七八糟回答,就是不能好好干活。GPT-5.4方面还是有明显进步的。废话不多,干活主动性更好。
DataLearner tweet mediaDataLearner tweet mediaDataLearner tweet media
中文
0
0
0
174
DataLearner
DataLearner@DataLearnerAI·
很好奇,当初如此明显的法律风险为啥字节团队没有发现?Sora 2显然也有类似能力,但是推出之后用character做了限制,只有授权后才能使用,不应该啊,这么明显的漏洞~
中文
1
0
0
363
DataLearner
DataLearner@DataLearnerAI·
感觉Anthropic相比较OpenAI还是简单一点,即使是免费的用户也是明确的模型,尽管用量不多,但是模型质量很好。相比较而言,免费用户的ChatGPT几乎即没有啥值得深入讨论的价值,除非明确的编码小问题,一旦问题有点深入,基本就属于非常平庸的回复,感觉还不如用DeepSeek。Sam果然shi深谙互联网运营啊
中文
1
0
1
187
DataLearner
DataLearner@DataLearnerAI·
anthropic宣布Claude最新的模型的100万上下文正式发布(此前beta版本)。也许是他们超长上下文能力有了突破进展,最大的变化是他们的收费不再区分是不是超过200K!此前比如opus4.6的接口,200K以上价格是200K以内的2倍!现在统统都是标准价格,等同降价!
Claude@claudeai

1 million context window: Now generally available for Claude Opus 4.6 and Claude Sonnet 4.6.

中文
0
0
1
227
DataLearner
DataLearner@DataLearnerAI·
不会吧 GPT-5.4都发布了 OpenAI还要继续迭代发布GPT-5.3 Codex Max?好奇二者区别是啥 难道OpenAI还会迭代codex系列吗
中文
0
0
0
77
DataLearner
DataLearner@DataLearnerAI·
@9hills 这也只是加载机制的设计问题吧 mcp照理说也可以改成类似的方法
中文
1
0
0
121
九原客
九原客@9hills·
@DataLearnerAI 因为mcp所有的tools description是一次性加载的,而cli的话可以用—help 渐进式获取帮助。 其实是之前的模型调用工具次数过多就不稳定,所以尽可能一次掉对。现在宁愿多调用几次,也不要占用过多token。
中文
1
1
14
1.7K