Günther | グンタ

3.8K posts

Günther | グンタ banner
Günther | グンタ

Günther | グンタ

@gunta85

AI Driven Office @ CyberAgent 🇯🇵 Design Engineer | JP⇄EN Built OpenSTF (13k+★) G Productions 🇺🇸

Japan Katılım Mart 2009
4.4K Takip Edilen5.2K Takipçiler
Sabitlenmiş Tweet
Günther | グンタ
Günther | グンタ@gunta85·
日本のエンジニアが世界で一番損してる理由、知ってますか。 まず @catnose99 さん、Zennという素晴らしいプラットフォームを作ってくれて本当にありがとうございます。 コード表示の美しさは世界一。 でも、衝撃的なデータから始めさせてください。 私の友人のアメリカ人エンジニア。 Substackで技術講座を販売。 年間収益:$156,960(約2,350万円) 彼は別にインフルエンサーじゃない。 普通のシニアエンジニアです。 一方、日本のZennの販売上限: 5,000円($33) この差、700倍です。 なぜこんなことが起きるのか。 各プラットフォームの上限を見てみましょう: • Zenn: 5,000円($33) • Note: 100,000円($667) • Substack: 無制限 • Gumroad: 無制限 • Udemy: 普通に$200(30,000円) エンジニア向けだけ異常に安い。 これ、偶然じゃないんです。 日本には「技術知識を安売りする文化」がある。 でも面白いことに、同じ日本企業が: • Udemy Business → 年間数千万円契約 • 技術研修 → 一人100万円とか普通 • コンサル → 月額300万円で契約 会社の金では高額な知識に投資する。 でも個人では投資しない。 なぜか? 「組織の学習」は投資 「個人の学習」は趣味 この認識の差が、日本を貧しくしている。 歴史を見ると、皮肉なんです。 明治時代、日本が世界の技術大国になれた理由: 📚 世界一の技術書数 当時の日本人の行動: • 西洋の技術書を猛烈に翻訳 • 高額でも技術書を買い漁る • 知識への投資を惜しまない 福沢諭吉「学問のすゝめ」も340万部売れた。 当時の人口の10人に1人が買った計算。 知識に金を払う文化が、日本を強くした。 詳細→ yakushin-manifesto.org/ja/ 2025年、AI革命の真っ只中。 技術の進化スピード: • GPT-4 → GPT-5:1年 • ChatGPT → Claude Code:数ヶ月 • 新しいフレームワーク:毎週 紙の本? 出版に6ヶ月かかる間に、技術は3世代進む。 だからこそデジタル。 だからこそ更新可能な技術書。 だからこそZenn。 でも5,000円上限じゃ、誰も本気で書かない。 「日本人エンジニアは実力がない」は嘘。 世界的企業で活躍する日本人: • Deno - コアチーム • Bun - 主要開発者 • voidzero - 創業メンバー • Cloudflare - 重要ポジション 技術力は世界トップクラス。 でも収入は? OpenAI、Metaのトップエンジニア年収: 2-4億円($1.3-2.6M) なぜ役員より高いのか? 理由は簡単: 一人で1000人分の価値を生み出すから。 AIエージェント開発したら、 その分の人間の労力を置き換える。 スケールするから価値が高い。 日本企業はこれを理解してない。 でも、変化は起きてます。 今日のLayerX(@fukkyy)の発表見ました? 「社員の年収最大1.5倍」 生産性向上の成果を還元。 アウトカムで評価。 これが正しい経営。 こういう企業が増えれば、日本は変わる。 じゃあ、どうすればいいのか。 【個人でできること】 • 自分の知識に適正価格をつける • 安売りしない勇気を持つ • 価値を言語化する 【企業ができること】 • エンジニアの市場価値を認識 • 知識への投資を惜しまない • LayerXのように成果を還元 【プラットフォームができること】 • 価格上限の撤廃 • 企業向け読み放題プラン • クリエイターへの還元率向上 @zenn_dev @classmethod @sato_shi さん 具体的な提案: 1. 価格上限を撤廃 市場が適正価格を決める 2. Zenn Business導入 読み放題を企業が契約→エンジニアに還元 3. 顧客と向き合う 1年放置のissue、解決しましょうgithub.com/zenn-dev/zenn-… PR送りますよ、無料で。 これ、Zennだけの話じゃない。 日本はクリエイティブ産業では勝ってる: • アニメ → 世界を席巻 • マンガ → グローバル文化 • ゲーム → 任天堂、ソニー でも、なぜテック産業では負けてる? 知識を正当に評価しないから。 明治時代のように技術大国に戻るには: コンテンツだけじゃ足りない。 技術力 × 適正な評価 = 国力 私も微力ながら貢献してます。 2014年に日本初のWebpack解説記事を書いた。 誰もやってなかったから、自分でやった。 一人一人ができることから始める。 それが積み重なれば、必ず変わる。 想像してください。 もし日本のエンジニアが: • 知識で月30万円稼げたら • 副業で年収が1.5倍になったら • 世界に技術発信できたら 若者がエンジニアを目指す。 海外から優秀な人材が来る。 日本の技術力が再評価される。 第二の明治維新が起きる。 無料の情報共有は美しい。 でも、無料だと更新されない。 結果、古い情報だらけ。 誰も得しない。 適正価格の有料コンテンツ。 常に最新。常に価値がある。 みんなが得する。 これが健全なエコシステム。 経営者の皆さん。 エンジニアの知識は、 居酒屋の飲み代より安くない。 その認識を変えるだけで、 日本経済は激変します。 今がその転換点。 このまま何もしなければ、 日本のエンジニアはずっと$33の世界。 アメリカとの差は開く一方。 でも今動けば、間に合う。 AI革命はまだ始まったばかり。 日本には技術力がある。 あとは、それを正当に評価する仕組みだけ。 これは切実なお願いです。 Zennが変われば、日本のエンジニア文化が変わる。 エンジニア文化が変われば、日本の技術力が変わる。 技術力が変われば、日本の未来が変わる。 大袈裟じゃないんです。 本気で思ってます。 一緒に、日本を技術大国に戻しませんか?
Asahi@asahiXXXXXXXXX

@gunta85 @zenn_dev @note_PR ほなnoteですかね🥲

日本語
24
274
1.6K
1.1M
Günther | グンタ
@Mason_Builder 若干ローレベルな言語であること、あと、仕様がシンプルだからという点はありますね
日本語
0
0
0
17
K2
K2@Mason_Builder·
rustはコンパイルなげーよな しかしZigはなんで動作が速いんだ?
Günther | グンタ@gunta85

「Rustで書き直せ」の時代が変わりつつあるかもしれない。 @rachpradhan さんのGitHubを見て感動した。Pythonインフラを1人でZigに置き換えている。FastAPI互換で7倍速のTurboAPI、Pydantic互換で136倍速のdhi、Homebrew互換でバイナリ1.2MBのnanobrew。全部Zig。これだけのものを1人で作り上げているのは素直にすごい。 自分もtiktokenをZigで書き直していた。turbotokenという名前で、こちらも約7倍速。事前に連絡を取り合ったわけではない。別々の人間が別々の場所で同じ言語を選び、同じような倍率に辿り着いた。 Rustを否定したいわけではない。メモリ安全性が求められる場面では今でも最良の選択肢だと思っている。ただ、今の開発の現場で無視できない問題がある。 コンパイル時間。 複数のAIエージェントが同時にコードを書き、ビルドし、テストし、修正するループを並列で回す時代に入っている。このループの中にRustのコンパイル待ちが入ると全体が止まる。Zigはここが桁違いに速い。ビルドが速ければエージェントの試行回数が増え、試行回数が増えれば最終的なコード品質が上がる。 言語仕様のシンプルさも見逃せない。隠れた挙動がないからLLMが正確にコードを生成できる。借用チェッカーは人間でも習熟に時間がかかる。AIが完璧に扱えると考えるほうが無理がある。 TurboAPIも、TurbotokenもAIエージェントとの反復で生まれた。この作り方がもう現実になっている。 Zigで書き直すと7倍速くなる。偶然ではない気がしていますね。

日本語
1
0
1
138
Günther | グンタ
@beef_and_rice 確かにこれはCodexのfastモードやCodex Sparkをガンガン回してるからこその感覚ですね あとスピードって書いたけど、それよりRustを複数同時に回すとコンパイル時にOOMになってしまうことが多かったです。Macbook 64GBでもダメでした
日本語
0
0
0
51
gyu-don | Takumi Kato
gyu-don | Takumi Kato@beef_and_rice·
あー、コード作成の時間が短縮されると、ビルド時間の比率が相対的に増えるので、ビルドの速さが試行回数に直結するという話(+言語仕様がシンプルだと生成がしやすいという話) 生成もそこそこ遅いし、そんなに変わらんのではと思ったけど、fastモードや並列実行をガンガン回してたら一理ありそう
Günther | グンタ@gunta85

「Rustで書き直せ」の時代が変わりつつあるかもしれない。 @rachpradhan さんのGitHubを見て感動した。Pythonインフラを1人でZigに置き換えている。FastAPI互換で7倍速のTurboAPI、Pydantic互換で136倍速のdhi、Homebrew互換でバイナリ1.2MBのnanobrew。全部Zig。これだけのものを1人で作り上げているのは素直にすごい。 自分もtiktokenをZigで書き直していた。turbotokenという名前で、こちらも約7倍速。事前に連絡を取り合ったわけではない。別々の人間が別々の場所で同じ言語を選び、同じような倍率に辿り着いた。 Rustを否定したいわけではない。メモリ安全性が求められる場面では今でも最良の選択肢だと思っている。ただ、今の開発の現場で無視できない問題がある。 コンパイル時間。 複数のAIエージェントが同時にコードを書き、ビルドし、テストし、修正するループを並列で回す時代に入っている。このループの中にRustのコンパイル待ちが入ると全体が止まる。Zigはここが桁違いに速い。ビルドが速ければエージェントの試行回数が増え、試行回数が増えれば最終的なコード品質が上がる。 言語仕様のシンプルさも見逃せない。隠れた挙動がないからLLMが正確にコードを生成できる。借用チェッカーは人間でも習熟に時間がかかる。AIが完璧に扱えると考えるほうが無理がある。 TurboAPIも、TurbotokenもAIエージェントとの反復で生まれた。この作り方がもう現実になっている。 Zigで書き直すと7倍速くなる。偶然ではない気がしていますね。

日本語
1
0
3
479
ǝunsʇo ıɯnɟɐsɐɯ / メタバース炎上対策専門家
「そのソフトウェア、ここが日本語対応してないよ」と不具合報告をしても英語圏開発者は「そんなの知らねーよ」と無視するけど。 「絵文字を使うとバグる。古臭くてダサいな」と言うと反応するのでemojiは計算機世界で健康で文化的な最低限度の基本的人権を得ている。
日本語
4
880
3.3K
168.3K
Georgios Konstantopoulos
We just launched Tempo Mainnet & the Machine Payments Protocol. Last 5 years our team also created: - Reth: high performance node SDK for Ethereum L1 & L2s. - Foundry: testing framework used to deploy/test >$100B in DeFi. - Wagmi/Viem: Typescript for all crypto web apps. AMA.
English
60
20
416
37.1K
Boshen
Boshen@boshen_c·
Anthropic bought the Bun team to fix Claude Code, OpenAI bought the Astral team to fix Codex. There is no third AI company to buy us, we are on our own😃
English
46
18
914
50.7K
Günther | グンタ
@petergostev So we're using less single-core processing and more multi-core processing now. Are we becoming increasingly like GPUs? Either way, it's the golden age for ADHD 😂
English
0
0
0
34
Peter Gostev
Peter Gostev@petergostev·
There's worry that people will stop using their brains with LLMs, but managing several AI agent threads in parallel has been some of the most cognitively intensive work I've done in years
English
172
130
1.7K
63.5K
Numman Ali
Numman Ali@nummanali·
Most addicting model right now is GPT 5.4 High with fast mode enabled Very smart, quick and iterative - actually is joyful to work alongside
English
5
0
39
1.9K
Günther | グンタ
他にも逆転するやつ: authorization → 1 token(丸ごと!) authz → 2 tokens ["auth", "z"] internationalization → 2 tokens i18n → 3 tokens yaml → 1 token yml → 2 tokens 「短い=安い」は幻想。 プロンプト最適化するなら必ずtokenizerで実測しよう。 ちなみにこれ全部、 自作の爆速 Tokenizerで検証しました⚡ gunta.github.io/turbotoken/
日本語
0
0
7
793
Günther | グンタ
正解:k8s kubernetes → 2 tokens ["k", "ubernetes"] k8s → 3 tokens ["k", "8", "s"] 10文字 → 3文字に略したのに、トークンは増えた。 BPEは「文字数」じゃなく「学習データでどれだけ出現したか」で切る。"ubernetes"は頻出するから丸ごと1トークン。"8s"はただの2バイトでしかない。 略語 ≠ トークン節約。直感を信じるな、tokenizerを通せ。
Günther | グンタ tweet media
日本語
1
0
10
949
Günther | グンタ
直感で答えて。カンニング禁止 🚫 GPT-5系トークナイザーで トークン数が多いのはどっち? 「kubernetes」 vs 「k8s」 答えはリプで👇
日本語
1
0
11
5.4K
Günther | グンタ
@nummanali I welcome the entire platform as long as it stays fast and performant. They are replacing slow software with fast software, and that’s a big point.
English
1
0
3
695
Günther | グンタ
「Rustで書き直せ」の時代が変わりつつあるかもしれない。 @rachpradhan さんのGitHubを見て感動した。Pythonインフラを1人でZigに置き換えている。FastAPI互換で7倍速のTurboAPI、Pydantic互換で136倍速のdhi、Homebrew互換でバイナリ1.2MBのnanobrew。全部Zig。これだけのものを1人で作り上げているのは素直にすごい。 自分もtiktokenをZigで書き直していた。turbotokenという名前で、こちらも約7倍速。事前に連絡を取り合ったわけではない。別々の人間が別々の場所で同じ言語を選び、同じような倍率に辿り着いた。 Rustを否定したいわけではない。メモリ安全性が求められる場面では今でも最良の選択肢だと思っている。ただ、今の開発の現場で無視できない問題がある。 コンパイル時間。 複数のAIエージェントが同時にコードを書き、ビルドし、テストし、修正するループを並列で回す時代に入っている。このループの中にRustのコンパイル待ちが入ると全体が止まる。Zigはここが桁違いに速い。ビルドが速ければエージェントの試行回数が増え、試行回数が増えれば最終的なコード品質が上がる。 言語仕様のシンプルさも見逃せない。隠れた挙動がないからLLMが正確にコードを生成できる。借用チェッカーは人間でも習熟に時間がかかる。AIが完璧に扱えると考えるほうが無理がある。 TurboAPIも、TurbotokenもAIエージェントとの反復で生まれた。この作り方がもう現実になっている。 Zigで書き直すと7倍速くなる。偶然ではない気がしていますね。
Rach@rachpradhan

We made TurboAPI hit 150k req/s. In under a day. It is now 22x faster than FastAPI Thanks to the amazing contributions from the people in the comment section, which allowed me to view what made the hyper optimized frameworks work the way that they do! Here's what changed..

日本語
1
31
195
45.3K
Günther | グンタ
@rachpradhan Also, building a full shell in Zig, including ~70 core Unix tools... still squashing tons of bugs, but the raw speed is unreal already 🏎️💨 Stay tuned! zum.sh
English
0
0
0
22
Rach
Rach@rachpradhan·
@gunta85 this looks funnnn LETS GOOO
English
2
0
1
354
Rach
Rach@rachpradhan·
I replaced FastAPI's entire HTTP core with Zig. Same decorator API. Same Pydantic models. 7× faster. 47,832 req/s vs FastAPI's 6,800. 2.09ms p50 latency. Introducing. TurboAPI. Here's the story..
Rach tweet media
English
91
221
2.7K
243.1K
Günther | グンタ
Crazy times! I feel we need to rewrite all software on Earth using Zig and just provide wrappers for the rest of the languages. 🥳 There is only something faster than Zig, and that is plain Assembly and NEON instructions. I tried writing an OpenClaw Assembly version and it worked. 🙈 gunta.github.io/AssemblyClaw/
English
0
0
1
55