
Introducing GPT-5.3-Codex-Spark, our ultra-fast model purpose built for real-time coding. We’re rolling it out as a research preview for ChatGPT Pro users in the Codex app, Codex CLI, and IDE extension.
Salt
25K posts

@solt152152
死ぬように生きていたくはない ✨思考属性:理系 ✨職業:SE→コンサル 兼 オッサン ✨興味:AI, 政治経済, 情報リテラシー, 物理, 人文学, 脳科学, ちいかわ, 藤井風, 石丸伸二 ⚡genron友の会会員

Introducing GPT-5.3-Codex-Spark, our ultra-fast model purpose built for real-time coding. We’re rolling it out as a research preview for ChatGPT Pro users in the Codex app, Codex CLI, and IDE extension.




Introducing Rork 1.5 • Easy app monetization with RevenueCat • Built-in analytics (no Firebase needed) • The smartest agent based on Opus 4.5 & Claude Code • Rork Stars community where successful mobile app founders like @zach_yadegari (Cal AI), @alexsllater (QUITTR), @georgeLampro20 will help you grow your app & over 100 small improvements 👇


SnowflakePro Core資格 学習時間3時間というナメプしたら640点で不合格くらった おい!!チャッピー!!! いい加減にせいよ!!! 「設計したわけです」じゃねーよww


これはもう、本当に多くの人が辿り着いてる真理なんすよね。 絵でも音楽でも、LLMでも同じ。 GPT-5をはじめとする、昨今の高IQのReasoningモデルを使っても『仕事ができない人はできないまま』だというのを多くの人が観測してると思う。 上手に使いこなしてるのは、『別にLLMが無くても最悪自分で出来るけど、あったら何かと便利だから使う』くらいの人なんよね。 SNS見ててもそう。 元々おもんない人がLLMで得意げに生成しても全然おもんない。 元々面白い文章書く人がLLMを使うと筆が速くなる。 平たく言えば『目標(成果物)の明確なイメージ』の差なんだけど、この差というのは結局のところ『どれだけその営みにリソースを投下したか』にほぼ比例するんよね。 注意してほしいのは、これは別に『リソースが投下された作品の価値のほうが大きい』って話をしていない。作品ではなく、作品を作るための想像力の差の話。 『別に描けなくても(書けなくても)明確にイメージできればできるだろ!』って考えはもちろんあると思うんだけど、自分で手が動く人からすると、そうじゃない人が想像する以上に大きな差がある。 誰かが言ってたけど、大体の、自分の手を動かす創作って、途中で地獄があるのよね。 でも、その『地獄』をいろんな事情、背景で乗り越えるフェーズがある。 さっき『DTMの挫折率が高い』といったポストも読んだけど、自分が『地獄』を超えられたのは、学業や仕事の辛い時期に、そこから目を逸らすための逃避のエネルギーだった。 吐きながら、泣きながら帰ってきても酒を飲みながらDAWを立ち上げて無心で打ち込めば救われた、というか打ち込まないと心が壊れそうだった。 そんなこんなで『地獄』を越える経験を大体の人がしていて、その、認知負荷の塊みたいなフェーズを超えることでしか得られないものって間違いなくあって、結果として、それが『目標(成果物)を解像度高く明確にイメージする』能力に直結するんよね。 創作って基本、憧れがないとできなくて、その地獄の期間って、憧れて憧れて憧れて、でもギャップに苦しんで、を繰り返すから、憧れという名の目標に対する解像度は尋常ではないことになる。 だから結局、『AIを上手に使えるのは、AIを使わなくてもできるような人』という結論になる。 ワイの本業の専門分野に、素人がAIを携えてきたって、負けるわけないもん。


🚀 Hello, Kimi K2 Thinking! The Open-Source Thinking Agent Model is here. 🔹 SOTA on HLE (44.9%) and BrowseComp (60.2%) 🔹 Executes up to 200 – 300 sequential tool calls without human interference 🔹 Excels in reasoning, agentic search, and coding 🔹 256K context window Built as a thinking agent, K2 Thinking marks our latest efforts in test-time scaling — scaling both thinking tokens and tool-calling turns. K2 Thinking is now live on kimi.com in chat mode, with full agentic mode coming soon. It is also accessible via API. 🔌 API is live: platform.moonshot.ai 🔗 Tech blog: moonshotai.github.io/Kimi-K2/thinki… 🔗 Weights & code: huggingface.co/moonshotai