林克 Link

443 posts

林克 Link banner
林克 Link

林克 Link

@veoxft

Engineer @ Big Tech | Building & exploring LLMs everyday Sharing practical AI tips, prompting techniques Also: Hiking addict ⛰️ & Landscape photograph 📷

Katılım Ocak 2013
121 Takip Edilen53 Takipçiler
林克 Link
林克 Link@veoxft·
@HiTw93 文章很不错啊,即有做agent的最佳实践又有使用建议👍
中文
0
0
0
530
林克 Link
林克 Link@veoxft·
几个月前就用stitch来做产品原型设计了,当时效果就很强。 当时流程是先对话gpt做prd,在提交给stitch做原型设计,还可以做局部修改,最后直接让stitch出代码。最后把项目上传到github pages,使用cloudflare部署,静态页面都不需要服务器。 这个效果非常好,在产品会上直接把这个cloudflare链接放出来,直接没产品什么事了。。。
Stitch by Google@stitchbygoogle

Meet the new Stitch, your vibe design partner. Here are 5 major upgrades to help you create, iterate and collaborate: 🎨 AI-Native Canvas 🧠 Smarter Design Agent 🎙️ Voice ⚡️ Instant Prototypes 📐 Design Systems and DESIGN.md Rolling out now. Details and product walkthrough video in 🧵

中文
0
0
0
30
Elon Musk
Elon Musk@elonmusk·
Generated with @Grok Imagine 🚬
English
6.4K
4.9K
49.4K
13.2M
林克 Link
林克 Link@veoxft·
@dotey 看的时候没注意,你这一说还真像早苗😂
中文
0
0
1
491
宝玉
宝玉@dotey·
这造型都是花了功夫的😂
宝玉 tweet media宝玉 tweet media
中文
6
0
46
22.8K
宝玉
宝玉@dotey·
不愧是央视制作,真的挺好看👍
中文
49
94
623
139.6K
林克 Link
林克 Link@veoxft·
GPT4发布了,今天准备在codex上高强度使用试试
中文
0
0
0
13
Cryptoxiao
Cryptoxiao@cryptoxiao·
宣布一件大事,我们把 6551 的X + 全网新闻源MCP + SKILL 开源了! 很多人说,6551 的新闻源、推特面板很好用就是消息太多看不完。 还有很多朋友跟我说 X API 太难接,Skill 学不会,折腾半天龙虾就是跑不起来。 今天直接解决,我们把我们积累了1年的数据基础架构全部打包成 MCP + SKILL,任何人都可以几分钟部署,24h帮你看新闻。 🦞 你的龙虾现在可以: • 直接连上 X 数据 + 全网50+实时新闻+链上数据,不用配 API 密钥。 • 24h 监控、分析、触发tg提醒。 照着 GitHub README 部署,几分钟就能装好。 欢迎大家安装试用和分享体验,有问题及时反馈及时迭代。 也欢迎👏🏻有热情的 dev 参加我们的生态 MCP github.com/6551Team/openn… github.com/6551Team/opent… SKILL clawhub.ai/infra403/openn… clawhub.ai/infra403/opent…
Cryptoxiao tweet media
中文
619
1.5K
6K
1.2M
花果山大圣
花果山大圣@shengxj1·
本来我对买 mac mini 跑 claw 没啥兴趣的,这个看完了感觉要下单了 感觉还得买个显示器
Andrej Karpathy@karpathy

Bought a new Mac mini to properly tinker with claws over the weekend. The apple store person told me they are selling like hotcakes and everyone is confused :) I'm definitely a bit sus'd to run OpenClaw specifically - giving my private data/keys to 400K lines of vibe coded monster that is being actively attacked at scale is not very appealing at all. Already seeing reports of exposed instances, RCE vulnerabilities, supply chain poisoning, malicious or compromised skills in the registry, it feels like a complete wild west and a security nightmare. But I do love the concept and I think that just like LLM agents were a new layer on top of LLMs, Claws are now a new layer on top of LLM agents, taking the orchestration, scheduling, context, tool calls and a kind of persistence to a next level. Looking around, and given that the high level idea is clear, there are a lot of smaller Claws starting to pop out. For example, on a quick skim NanoClaw looks really interesting in that the core engine is ~4000 lines of code (fits into both my head and that of AI agents, so it feels manageable, auditable, flexible, etc.) and runs everything in containers by default. I also love their approach to configurability - it's not done via config files it's done via skills! For example, /add-telegram instructs your AI agent how to modify the actual code to integrate Telegram. I haven't come across this yet and it slightly blew my mind earlier today as a new, AI-enabled approach to preventing config mess and if-then-else monsters. Basically - the implied new meta is to write the most maximally forkable repo and then have skills that fork it into any desired more exotic configuration. Very cool. Anyway there are many others - e.g. nanobot, zeroclaw, ironclaw, picoclaw (lol @ prefixes). There are also cloud-hosted alternatives but tbh I don't love these because it feels much harder to tinker with. In particular, local setup allows easy connection to home automation gadgets on the local network. And I don't know, there is something aesthetically pleasing about there being a physical device 'possessed' by a little ghost of a personal digital house elf. Not 100% sure what my setup ends up looking like just yet but Claws are an awesome, exciting new layer of the AI stack.

中文
19
12
125
85.5K
林克 Link
林克 Link@veoxft·
@dotey 应该不是生产环境的内存泄漏问题吧,那不是要把Claude code安装到服务器上
中文
0
0
0
207
林克 Link
林克 Link@veoxft·
推上全是这个宇树机器人表演,昨晚看的时候真担心翻车,不知道你们有这个感受么😅
中文
0
0
0
107
林克 Link
林克 Link@veoxft·
现在Seedance 2.0 基础会员生成一个10s的视频都要排队5小时了,有再多积分也没用啊
林克 Link tweet media
中文
0
0
0
168
林克 Link
林克 Link@veoxft·
@oran_ge 大概率还是openclaw造成的供不应求
中文
1
0
1
1.1K
宝玉
宝玉@dotey·
OpenAI 发布了 GPT-5.3-Codex-Spark,专为实时编程设计的小模型,也是 OpenAI 和 Cerebras 合作后的第一个成果。跑在 Cerebras 晶圆级芯片上,推理速度超过每秒 1000 个 token。x.com/OpenAI/status/… Codex 之前的强项是长时间自主运行,连续工作几小时甚至几天。但日常写代码更多是改个函数、调个接口、重构一段逻辑,等模型想十几分钟再出结果,体验很差。 Codex-Spark 填的就是这个空缺:你可以一边看它输出一边打断、纠正、追问,像跟一个反应极快的搭档对话。 SWE-Bench Pro 上,Codex-Spark 达到 51% 准确率只需 2.3 分钟,GPT-5.3-Codex 同等准确率要 3 分钟,冲到 57% 则需要 16 分钟。 Terminal-Bench 2.0 上 Spark 得分 58.4%,比不上完整版 Codex 的 77.3%,但大幅超过上一代小模型的 46.1%。 OpenAI 顺便把整条推理管线做了优化:引入持久化 WebSocket 连接,往返开销降 80%,每 token 额外开销降 30%,首 token 响应减半。 Cerebras 晶圆级引擎负责极低延迟场景,GPU 仍是训练和推理主力,两者可混合使用。 目前 128K 上下文、纯文本、仅 ChatGPT Pro 用户研究预览。 后续规划是让实时交互和长线任务两种模式融合:Codex 在跟你实时对话的同时,把耗时任务分派给后台子智能体,用户不需要预先选模式。 模型越强,交互速度越是瓶颈,Codex-Spark 是 OpenAI 在这条路上的第一步。
中文
17
9
92
30.7K
林克 Link
林克 Link@veoxft·
@dotey 上周末用即梦app测试了下,效果非常强,结果这周一权限被收回了。。。好歹也是充了会员
中文
0
0
0
660
宝玉
宝玉@dotey·
Seedance 2.0 这几天是真的火,X 上到处都是它生成的视频,又一次让海外 AI 圈羡慕国内 AI 圈。 影视飓风的 Tim 昨晚发了测试视频,对技术本身评价很高:分镜设计、运镜、音画匹配都是质的飞跃。 那条视频我也看了,其中他提到一个问题:上传自己照片做参考图时,生成视频的声音和他本人很像,而他从未提供过任何声音样本。 这倒不奇怪,影视飓风在全网有大量高清视频,肯定已经被用作训练数据。 之前谷歌 Veo 3 推出时,人们发现生成的视频也很像一些知名创作者的作品;OpenAI 最早推出 Sora 时,外媒也测试到它能高度模仿经典电影片段。用公开数据训练是国内外大模型的共同做法,Tim 作为明星级公众人物,素材进入公开数据集并不意外。 这种担忧挺合理的,但这趋势我们挡不住,现在已经没有人能阻挡 AI 的加速了。 最早音色克隆技术出来的时候,大厂掌握了技术但不敢放开,反倒是小团队先做出来发布了,慢慢大家也就跟进接受了。 这几天大火的 ClawdBot/OpenClaw 也是同样的路径,各种隐私安全问题被讨论,但因为是个人小团队项目,大家宽容度明显更高,等大厂后续下场反而更容易被接受。 这种事大厂反而能让人放心一点,大厂有能力也有动力去做合规限制,小作坊下料才是真的猛。 事实上即梦已经限制了真人人脸生成视频,大厂在技术狂奔时还是会守住一些底线。 结果倒是很多人在那哀叹,限制了真人人脸生成视频,少了一些可以测试的例子,很多视频都成了绝版。 与其焦虑不如多想想怎么在技术创新与数据合规之间找到平衡。 像 Sora 2 的分身(Chapter)功能就是一个不错的尝试方向,让你既能享受技术带来的乐趣,又减少一些隐私上的担忧。比如我给孩子制作了分身,我只会给家人分享,不会让别人用。 好消息是,人们对 AI 生成的音频视频正在建立起更多辨别力和免疫力,这本身也是一种自然的适应过程。我也经常跟家人朋友科普让他们小心 AI 视频。 我自己有个小技巧是先看视频时长是不是 10 秒 15 秒这种整数,不过这招已经快像看 AI 图片人物有没有六根手指一样不灵了。 你们都用什么技巧分辨 AI 生成的图片或者视频呢?
宝玉 tweet media宝玉 tweet media宝玉 tweet media
中文
28
2
98
50.9K
冰河
冰河@binghe·
我用 Lovart 生成漫剧的Skill 生成分镜故事板,再用即梦seedance 2.0 把故事板里的分镜说明,复制进去。(一字不用改) 只选择“首尾帧”,还不需要复杂的智能参考和智能多帧功能。。。 就这么简单。。。他生成的,比我用 ComfyUI做的还细致。。 完了, 这行已经没有门槛了。。。这才用了不到半年。。
冰河 tweet media冰河 tweet media冰河 tweet media
中文
16
41
255
90.5K