Robot

6.1K posts

Robot

Robot

@Random_W23

技術和科學 健身

北京, 中华人民共和国 Joined Kasım 2016
502 Following49 Followers
Robot retweeted
tetsuo
tetsuo@tetsuoai·
how CNNs see images 16 boxes covering the core CNN stack. tensors, filters, feature maps, stride, padding, channels, pooling, receptive fields, mental model
tetsuo tweet mediatetsuo tweet mediatetsuo tweet mediatetsuo tweet media
English
13
131
761
28.9K
Robot retweeted
向阳乔木
向阳乔木@vista8·
今天信息推送看到一个很老的Github库,可以被称为全网第一造轮子库,哈哈哈。 49万Star,震惊😱 地址见评论区
向阳乔木 tweet media
中文
57
295
1.8K
123.3K
Robot retweeted
Yadong Xie
Yadong Xie@yadong_xie·
复刻了这两天特别火的网红项目,有点好玩
中文
13
31
474
52.2K
Robot retweeted
tetsuo
tetsuo@tetsuoai·
monocular vision is wild one camera stream, estimating motion and sparse 3D structure from changing pixels alone
English
12
38
347
26.5K
Robot retweeted
Tw93
Tw93@HiTw93·
视频分享版的《你不知道的 Agent:原理、架构与工程实践》终于传到 Youtube 去了,上次看文章的小伙伴假如没有看太懂的,或者想更加了解的,欢迎看视频,Youtuber 视频小白欢迎大家一键三连加关注,以后我尽量把分享都录屏分享给大伙在这里看看。 youtube.com/watch?v=Z5If1L…
YouTube video
YouTube
中文
7
105
685
102.7K
Robot retweeted
梓哲悟语 | Zenzhe
认识AI 建议大家花三分钟搞懂 Agent 、Skills 、Harness ; Agent、Skills 和 Harness 是 构建现代 AI 应用(尤其是自主智能体)时的三个核心概念, 它们共同协作让 AI 从“只会聊天” 进化为“能干活”。 1. Agent(智能体):大脑与决策者 Agent 是核心控制器, 相当于人的“大脑”。 它不仅仅是一个对话模型, 更具备感知、规划、记忆和行动的能力。 核心作用: 接收用户目标, 自主拆解任务步骤, 决定何时调用工具, 并根据反馈调整策略。 特点: 具有主动性(Autonomy), 能在没有人类步步指令的情况下, 独立完成复杂流程(如“帮我策划一次旅行并预订机票”)。 2. Skills(技能/工具):手脚与执行力 Skills 是 Agent 调用的具体能力单元, 相当于人的“手脚”或“工具箱”。 核心作用: 执行具体操作。 大模型本身只有知识, 没有行动力, 必须通过 Skills 连接外部世界。 常见形式: 搜索互联网、读写文件、 调用 API(如发送短信、查询天气)、 运行代码或操作特定软件。 关系: Agent 决定“做什么”, Skills 负责“怎么做”。 3. Harness(编排框架/调度器):骨架与协调者 Harness 是支撑 Agent 运行、 管理 Skills 调用的基础设施或框架, 相当于“神经系统”或“工作台”。 核心作用: 安全管控:限制 Agent 的权限,防止其执行危险操作(如删除系统文件)。 流程编排:管理多个 Skills 的调用顺序,处理并发任务。 状态管理:记录对话历史和任务进度,确保 Agent 在长任务中不“失忆”。 评估反馈:监控执行结果,如果 Skills 执行失败,Harness 会反馈给 Agent 让其重试或换一种方法。 三者关系总结: 用户提出目标 -> Harness 接收并初始化环境 -> Agent 分析目标并制定计划 -> Agent 指挥 Skills 执行具体动作 -> Skills 返回结果给 Agent -> Harness 监控全过程并确保安全 -> 最终交付结果给用户。
梓哲悟语 | Zenzhe tweet media
中文
9
261
881
49.7K
Robot retweeted
西时珍🌎
西时珍🌎@usd666666·
分享一个让对方难受的话术
中文
237
152
1.9K
106K
Robot retweeted
Givros
Givros@givros·
Codex + GPT-Image-2 + Three.js = instant interactive 3D worlds 🌍
English
13
58
581
38.1K
Robot retweeted
Y11
Y11@seclink·
这家伙刚刚在一块单张 3090 显卡上,跑出了 Qwen 3.5-27B Dense 模型 134 tok/s 的速度,以及新版 Qwen 3.6-27B 模型 73 tok/s 的速度。2026 年的开源社区,其发展速度简直如神速一般。 模型权重在傍晚发布,动态 GGUF 文件在午夜前上线,而融合内核(Fused Kernel)+ 推测解码(Speculative Decoding)的技术栈,在模型发布仅仅 12 小时后,就已经能运行这个新模型了。 他的 dflash + ddtree 技术栈能够直接原封不动地加载 Qwen 3.6,因为其架构标识符(architecture string)与 3.5 版本完全匹配。这意味着无需对草稿模型(draft model)进行任何重新训练,也无需苦等上游社区提供支持。此前那套针对消费级硬件精心调优的内核代码——正是它将 3.5 版本的速度推升到了 134 tok/s——现在也能直接处理 3.6 版本,虽然速度降到了 73 tok/s;对此,他坦诚地指出了这一性能回退现象,因为草稿模型确实需要针对 3.6 版本进行一次专门的优化适配。 这是一个几乎无人涉足的领域。各大主流实验室目前仍局限于发布那些专为 H100 显卡集群优化的框架抽象层。 @pupposandro 却在亲手调优那些针对“实际构建者”们真正拥有的硬件芯片所适配的内核代码。3090 显卡拥有 24GB 显存,具备成熟的 CUDA 支持,但来自大厂的内核级优化却几乎为零。在当前的消费级 AI 领域中,它无疑是被严重低估的一块研究平台。 我现在正通过 llama.cpp 运行一套“诚实、基准级”的 Q4_K_M 量化模型测试,旨在确立 Dense 模型的性能下限——且不使用任何投机取巧的加速手段。随后,我会在同一块 GPU、同一款模型、同一条 Prompt(提示词)上运行 Sandro 的技术栈。这相当于是一场“通用推理方案”与“结合推测解码的定制调优内核”之间的较量。两者之间的性能差距(Delta),正是未来五年消费级 AI 领域的核心增长点所在。
Sudo su@sudoingX

this guy just cracked 134 tok/s on qwen 3.5-27b dense and 73 on new qwen 3.6-27b on a single 3090. open source moves at godspeed in 2026. weights ship in the evening, dynamic ggufs land by midnight, fused kernel + speculative decoding stack runs the new model 12 hours after release. his dflash + ddtree stack loads qwen 3.6 asis because the architecture string matches 3.5. zero retraining of the draft model, zero waiting for upstream support. the same hand tuned consumer hardware kernel work that pushed 3.5 to 134 tok/s already eats 3.6 at 73, with a regression he is openly flagging because the draft model needs a dedicated pass for 3.6. this is the lane almost nobody is working on. major labs are stuck shipping framework abstractions optimized for h100 fleets. @pupposandro is hand tuning kernels for the silicon actual builders own. 3090 has 24 gigs of vram, mature cuda support, and almost zero kernel level optimization coming out of the big shops. it is the most underrated research platform in consumer ai right now. i am running honest baseline q4_k_m on llama.cpp now to set the dense floor without tricks. then sandro's stack runs on the same gpu, same model, same prompt. generic inference vs hand tuned kernels with speculative decoding. that delta is where the next 5 years of consumer ai live. receipts incoming.

中文
8
25
207
29.5K
Robot retweeted
Emily Han
Emily Han@emilyhanyf·
built an interactive guide to teach you the basics of mahjong ! 🀄 it includes rulesets from different regions (hk and taiwan for now) with a few interactive elements to illustrate mahjong concepts. more demos in thread, and a bit about the tools i used to build this. the one thing this guide can’t really capture is how social mahjong is -- mahjong tables are never silent ! they’re full of overlapping conversations and the constant click-clack of acrylic tiles stacking and shuffling against each other. come to @modal's mahjong night tmrw to experience that part for yourself : )
English
139
979
9.4K
400.6K
Robot retweeted
鸟哥 | 蓝鸟会🕊️
手搓大模型,你敢想吗? GitHub上这套大模型教程我给你们挖出来了,不藏着! 《动手做大模型系列》,视频+文档+代码三件套,从零打通完整技术栈,学完直接能用到项目里。 重点来了,它覆盖这些: 1⃣ 微调与部署:llama-factory、vllm实战跑通 2⃣ RAG技术栈:检索增强从搭建到优化 3⃣ Agent开发:手把手构建可用智能体 4⃣ 面试指导:算法岗路线图,少走弯路 想进AI行业还没系统学过的,这套直接收藏! 🔗 github.com/echonoshy/cgft…
鸟哥 | 蓝鸟会🕊️ tweet media
中文
6
43
150
9.2K
Robot retweeted
Sida Peng
Sida Peng@pengsida·
In our comparison on long image sequences, Scal3R consistently outperforms DA3. In such cases, Scal3R offers a viable alternative. Feel free to try Scal3R: github.com/zju3dv/Scal3R
English
4
20
194
10K
Robot retweeted
梭哈|超级个体
梭哈|超级个体@WEB3_furture·
GPT Image 2 是目前最强图像生成模型,已超越谷歌的 Nano Banana! 这种级别的图片已经可以做到以假乱真了,太炸裂了,把普通人搞副业/搞钱的门槛再次降低,几分钟就能出能直接商用的专业图 我强烈推荐这个超级实用的提示词现成库: youmind.com/gpt-image-2-pr… 这个网站已经整理了725个高质量GPT Image 2专用提示词,涵盖头像、社交媒体、YouTube封面、漫画故事板、海报传单、App/Web设计.....而且每天都在更新,直接复制就能用
梭哈|超级个体 tweet media
中文
24
72
445
74.9K
Robot retweeted
鸟哥 | 蓝鸟会🕊️
有人把GPT-Image-2最强提示词全偷出来了! GitHub上这个仓库直接整合了576个star的高质量提示词案例,人像、海报、角色设计、UI mockup全覆盖。 从便利店霓虹灯写真到宋朝社交媒体界面,真实创作者实测案例直接拿来用。不会写提示词的救命稻草来了。 🔗 github.com/EvoLinkAI/awes…
鸟哥 | 蓝鸟会🕊️ tweet media
鸟哥 | 蓝鸟会🕊️@NFTCPS

NVIDIA在偷偷送钱,大多数人还不知道的白嫖机会! build.nvidia.com → NVIDIA官方的API平台,注册就送1000+ credits,API Key可以设成永不过期 能白嫖到什么: → MiniMax、Kimi-K2.5、GLM-5、Llama等一堆主流模型 → 免费额度下限速约40次/分钟,个人日常使用完全够 → Key生成时选"Never Expire",不用担心过期失效 注册流程3步: → 打开 build.nvidia.com → Google/GitHub一键登录 → 手机号验证(卡住就切无痕模式重试) → 右上角头像 → API Keys → Generate,过期时间选永不过期 注意账号名和云账号名都填英文+数字,中文会卡注册流程 几个实际限制要清楚: → 免费额度有上限,用完需要去官网申请 → 40次/分钟的速率限制 → 个人玩可以,跑生产环境不行 → credits什么时候收紧不确定,NVIDIA说了算 适合什么人 → 想低成本接入多个大模型API做实验、跑Agent、搭个人项目的开发者。企业级需求还是老老实实买额度

中文
17
134
818
109.4K
Robot retweeted
沉浸式翻译
沉浸式翻译@immersivetran·
推荐一个程序员必备的可视化 Git 学习工具:Learn Git Branching 在软件开发的过程中,Git 是每一位开发者都绕不开的版本控制工具。然而,由于 Git 的底层逻辑相对抽象,尤其是涉及“分支(Branching)”操作时,单纯依靠命令行反馈的文本信息,初学者往往很难直观理解 merge、rebase 或 cherry-pick 之后,代码树到底发生了怎样的变化。 最近在 Reddit 的编程学习板块(r/learnprogramming)看到一个被多次提及的高分资源:Learn Git Branching。它不仅仅是一个教程,更是一个能够让你“看透” Git 逻辑的模拟器。 这个网站最大的特色在于其“左边写命令,右边看图形”的交互模式。当你输入一条 Git 命令时,右侧的可视化区域会立即通过动画演示分支节点的移动、合并或拆分。这种实时的图形反馈,将抽象的逻辑操作转化为了具体的空间变化,极大降低了理解成本。 Learn Git Branching 并不是散乱的文档,它设计了一系列由浅入深的挑战关卡。 1️⃣ 基础篇: 涵盖 git commit、git branch、git checkout 等基本指令,帮助你建立起“提交记录是节点”的基础认知。 2️⃣ 高级篇: 专注于处理复杂的开发场景。例如,如何使用 git rebase 保持提交历史的整洁,或者如何利用 git cherry-pick 精确地抓取特定的提交记录。 3️⃣ 远程篇: 模拟本地仓库与远程仓库(GitHub/GitLab)之间的交互,讲解 push、pull、fetch 以及如何处理远程分支追踪。 为什么它值得被列入“宝藏名单”? 1️⃣ 完全免费且开源: 作为一个纯公益性质的项目,它不需要注册,没有任何付费墙,代码在 GitHub 上完全透明,社区驱动的特性保证了其内容的准确性和持续更新。 2️⃣ 容错性高的实践场: 在真实的生产环境中,输入一条错误的 rebase 命令可能会导致灾难性的后果。但在 Learn Git Branching 里,你可以随意尝试各种极端操作。通过内置的 undo 功能,你可以随时回退,观察不同路径导致的结果差异。 Git 学习的核心不在于死记硬背指令,而在于理解其背后的图论逻辑。Learn Git Branching 通过一种近乎“游戏化”的沉浸式体验,成功地填补了命令行指令与心理模型之间的鸿沟。 网站自带多国语言。 🔗: learngitbranching.js.org
沉浸式翻译 tweet media沉浸式翻译 tweet media沉浸式翻译 tweet media
中文
2
40
193
16.4K
Robot retweeted
Shoya Kajita
Shoya Kajita@sho4771k·
TouchDesignerでよく見るやつをWebGLでやってみたシリーズ Mediapipeを使って ascii mosaic を試してみた。 両手:板ポリの4隅の頂点が追従 左手クリック:カラーチェンジ 右手クリック:モザイクの細分化 #webgl #glsl #threejs #touchdesigner ▶︎ dev.shoya-kajita .com/077/ ついでにいろんなノーマルマップの見え方試してる! ▼ クリックできるデモのURLはスレ欄に ▼
日本語
4
44
708
46.3K
Robot retweeted
看不懂的SOL
看不懂的SOL@DtDt666·
兄弟们,今晚别再刷抖音消磨时间了 这条 1 小时播客,专访 Claude Code 负责人。 抽出一小时,沉下心来看完这套视频,你对 vibe-coding(氛围式编程)的理解,会超过 100 门付费课程。 它能教会你自主搭建、自动化处理各类事务 今晚认真学完的兄弟,明天醒来就会掌握一项 未来两年里绝大多数人都不具备的硬核ai能力。 而选择跳过的人,或许明年此刻 还在刷着剧,困惑着生活为何始终毫无起色 路怎么走,全看你自己的选择。 积极学习 拥抱ai!
中文
146
1.4K
6K
352.4K