Angehefteter Tweetそーす🍒✨@nullptr_soos·2 Nis再掲シマス @OtakuSelfie_vsp 鍵垢です〜 あんまり厳選はないけど色々と内容酷いので自己責任で( 写真垢と最奥は鍵にあるので貼りません(Übersetzen 日本語0081.9K
そーす🍒✨@nullptr_soos·3h金額やのにfloatで計算するの草 intつかえよ!!ÜbersetzenPythonアカデミア@python_academia初学者の方は絶対に押さえておきたいマジックナンバー🪄 日本語002156
そーす🍒✨@nullptr_soos·1h意外と時間あったので書いといた 汚いって言った人全員家特定して爆撃します とりあえず今日の午前中までに反応くれた人書いといたÜbersetzenそーす🍒✨@nullptr_soosあのー、今日の夜か どっかにやります( 日本語717175
そーす🍒✨@nullptr_soos·2hえぺ めっちゃ火力出て最強なんじゃないかと思うくらい強い日と ほんまにお前ダイヤなん?ww 弱すぎるやろwww って日がある 最近は後者が多くて萎えてるÜbersetzen 日本語20575
そーす🍒✨ retweetet日本酒 【絹乃峰®】 製造元 株式会社赤名酒造 Japanese sake KINUNOMINE™@AkanaBrewing·22hなぜアルファベットのHが保存なのかと考える高校生。Übersetzen Iinan-cho, Shimane 🇯🇵 日本語1184124.4K1.8M269
そーす🍒✨ retweetetやねうら王@yaneuraou·4hAIに巨大なプログラムを書かせているとき、本質的なのは「AIが1秒あたり何行書けるか」ではない。実際に効いてくるのは、コード量が増えるにつれて、開発オーバーヘッドがどうスケールするかである。 AIが素で単位時間あたり一定量aのコードを書けるとしても、実開発ではコンパイル、テスト、デバッグ、調査、影響範囲の確認といったオーバーヘッドが必ず乗る。問題は、そのオーバーヘッドがその時点tでのコード全体量C(t)に対してどう増えるかだ。 単純化すると、以下の二つのケースがある。 1. オーバーヘッドが C にほぼ比例するケース 2. オーバーヘッドが log C 程度に抑えられるケース コンパイル時間は、フルビルドだと1.に近い。 原因の切り分けが二分探索的に進められる種類のデバッグでは、2.に近い。 1.と2.のケースにおいてC(t)が時間tに対してどのように増加するか計算してみたのが添付図だ。 結論としては、 1.は、C(t)は√tに比例するので、コードを10倍にしようと思うと100倍の時間が必要。 2.は、C(t)はtに対してかなり直線に近い増え方をする。 である。 言うまでもなく1.と2.とは雲泥の差である。ソフトウェア工学のかなりの部分は、1.の世界をいかに2.に近づけるかという試みだったとも言える。 コードを書くときの認知的・構造的オーバーヘッドも、放っておけば前者に寄りやすい。しかし、モジュール分割、関数分割、クラス分割、依存の局所化、テスト単位の分離をきちんと行えば、そのコストを後者に近づけられる。そうなるようにプログラミング言語やモジュール機構、テスト手法、設計原則は発展してきたわけであり、マイクロサービスやクリーンアーキテクチャも、その文脈で理解できる。 AI時代になると、この問題はむしろ先鋭化する。AIはコードそのものを書く速度が高いぶん、設計や検証のオーバーヘッドの悪さが、以前よりはっきり露呈するからだ。 設計が悪く、影響範囲が広く、テスト単位が粗く、どこが壊れたのかを絞れない構造になっていると、1.に近づく。すると、せっかくの生成速度がオーバーヘッドに食われる。 だから、今後AIで巨大なプログラムを開発するエンジニアに強く求められるのは、単にプロンプトがうまいことではない。 システムを分割し、影響範囲を閉じ込め、検証単位を細かく設計して、開発全体のスケーリング則そのものを改善する能力だと思う。Übersetzen 日本語513058264.4K357