Jas
3.3K posts


@BoyuanChen0 I would like to be able to generate transparent backgrounds and use 'Thinking mode' via the API.
English
Jas 리트윗함

After his amazing Patina model to generate PBR texture, @MLPBenjamin launch the first @fal plugin for @blender !!!
github.com/fal-ai/fal-ble…
You can generate 3d model, texture, and even render with AI !!
English
Jas 리트윗함
Jas 리트윗함

I told Director Sakuma and the producers that I wanted them to create an exciting anime filled with unique episodes, like “The Hakkenden s2e4: ‘Hamaji's Resurrection’.”
Or like s2e13 of “Yama no Susume.”
I wanted the team to have fun.
And now, that time has come.
#KamiinaBotan
English
Jas 리트윗함

Anthropic's Mythos has been accessed by a small group of unauthorized users, raising questions about control of the AI model bloomberg.com/news/articles/…
English

看起来 Open AI 的 gpt-image-2 模型全量上线了!
现在就可以用,效果非常顶!
第一张图我就让它可爱地解释一下大语言模型训练过程,这质量也太好了!
第二张图我就给了他一个 OpenAI 的更新文档,然后让他介绍一下这个更新,他就给了我这样的东西。
太牛批了!


歸藏(guizang.ai)@op7418
我操,OpenAI 新的图像模型 gpt-image-2 太牛逼了! 我就给了它我项目的 GitHub 链接,然后让它生成卡片式的互联网宣传图,所有的信息都是对的。 中文生成也非常的准确,没有一个错字。 对比一下最近谷歌对 Gemini Nano 2 的降智,高下立判。 我这 Pro 会员买对了呀!
中文
Jas 리트윗함
Jas 리트윗함

我靠,HeyGen 发布这个 hyperframes CLI 很强啊
跟我之前的一个想法类似,就是它把用纯 HTML 写的那个动效变成视频。
然后再接一个(比如 Seedance 2.0 这样的)模型。
这样你就可以纯零人工介入,实现人脸出镜的那种科普视频了。
比如我发布一个小东西,想讲一下这些功能,我就可以一张照片扔上去,剩下的全交给 Claude Code 搞完。
而且它支持 GSAP、Lottie、CSS、Three.js 这种框架去生成视频的效果。
理论上你可以拿这套东西构建出任何主流的 AE 特效模板。
它支持完整的视频渲染管线,包括获取、编码、音频混合,还有一个编辑器的 UI 界面,你可以手动在这个界面里编辑。
这个比原来的 Remotion 完整和强大了非常多,推荐你如果用原来 Remotion 做视频,可以换到这个框架了
HeyGen@HeyGen
We built our launch video in Claude Code using HyperFrames. Now it's yours. Open source, agent-native framework. HTML to MP4. $ npx skills add heygen-com/hyperframes RT + Comment "HyperFrames" to get the full source code of this launch video (must follow)
中文














