
Günther | グンタ
3.8K posts

Günther | グンタ
@gunta85
AI Driven Office @ CyberAgent 🇯🇵 Design Engineer | JP⇄EN Built OpenSTF (13k+★) G Productions 🇺🇸


「Rustで書き直せ」の時代が変わりつつあるかもしれない。 @rachpradhan さんのGitHubを見て感動した。Pythonインフラを1人でZigに置き換えている。FastAPI互換で7倍速のTurboAPI、Pydantic互換で136倍速のdhi、Homebrew互換でバイナリ1.2MBのnanobrew。全部Zig。これだけのものを1人で作り上げているのは素直にすごい。 自分もtiktokenをZigで書き直していた。turbotokenという名前で、こちらも約7倍速。事前に連絡を取り合ったわけではない。別々の人間が別々の場所で同じ言語を選び、同じような倍率に辿り着いた。 Rustを否定したいわけではない。メモリ安全性が求められる場面では今でも最良の選択肢だと思っている。ただ、今の開発の現場で無視できない問題がある。 コンパイル時間。 複数のAIエージェントが同時にコードを書き、ビルドし、テストし、修正するループを並列で回す時代に入っている。このループの中にRustのコンパイル待ちが入ると全体が止まる。Zigはここが桁違いに速い。ビルドが速ければエージェントの試行回数が増え、試行回数が増えれば最終的なコード品質が上がる。 言語仕様のシンプルさも見逃せない。隠れた挙動がないからLLMが正確にコードを生成できる。借用チェッカーは人間でも習熟に時間がかかる。AIが完璧に扱えると考えるほうが無理がある。 TurboAPIも、TurbotokenもAIエージェントとの反復で生まれた。この作り方がもう現実になっている。 Zigで書き直すと7倍速くなる。偶然ではない気がしていますね。


「Rustで書き直せ」の時代が変わりつつあるかもしれない。 @rachpradhan さんのGitHubを見て感動した。Pythonインフラを1人でZigに置き換えている。FastAPI互換で7倍速のTurboAPI、Pydantic互換で136倍速のdhi、Homebrew互換でバイナリ1.2MBのnanobrew。全部Zig。これだけのものを1人で作り上げているのは素直にすごい。 自分もtiktokenをZigで書き直していた。turbotokenという名前で、こちらも約7倍速。事前に連絡を取り合ったわけではない。別々の人間が別々の場所で同じ言語を選び、同じような倍率に辿り着いた。 Rustを否定したいわけではない。メモリ安全性が求められる場面では今でも最良の選択肢だと思っている。ただ、今の開発の現場で無視できない問題がある。 コンパイル時間。 複数のAIエージェントが同時にコードを書き、ビルドし、テストし、修正するループを並列で回す時代に入っている。このループの中にRustのコンパイル待ちが入ると全体が止まる。Zigはここが桁違いに速い。ビルドが速ければエージェントの試行回数が増え、試行回数が増えれば最終的なコード品質が上がる。 言語仕様のシンプルさも見逃せない。隠れた挙動がないからLLMが正確にコードを生成できる。借用チェッカーは人間でも習熟に時間がかかる。AIが完璧に扱えると考えるほうが無理がある。 TurboAPIも、TurbotokenもAIエージェントとの反復で生まれた。この作り方がもう現実になっている。 Zigで書き直すと7倍速くなる。偶然ではない気がしていますね。





This FFF MCP IS A BEAST. Thanks @neogoose_btw





In the next version of Bun `Bun.WebView` programmatically controls a headless web browser in Bun

We made TurboAPI hit 150k req/s. In under a day. It is now 22x faster than FastAPI Thanks to the amazing contributions from the people in the comment section, which allowed me to view what made the hyper optimized frameworks work the way that they do! Here's what changed..










