mlops_community_jp

9.1K posts

mlops_community_jp banner
mlops_community_jp

mlops_community_jp

@MlopsJ

機械学習、LLM、AI Agent技術を実用化する方法の理解を深める技術コミュニティです。 MLOps、LLMOps、AgentOpsに関する勉強会を開催。 https://t.co/YPNbqaF5Hb MLOpsコミュニティSlackはこちら! https://t.co/HrZrFcl9s2

Katılım Mart 2021
337 Takip Edilen2.3K Takipçiler
mlops_community_jp retweetledi
François Chollet
François Chollet@fchollet·
I wrote Deep Learning with Python to be the definitive guide to how deep learning works and how to best make use of it. Tens of thousands of people got their career start via this book. 120,000 copies sold, and downloaded by millions more. And now it's free to read online: deeplearningwithpython.io
English
70
494
3.5K
534.8K
mlops_community_jp retweetledi
とりにく
とりにく@tori29umai·
huggingfaceに漫画専用のアノテーションモデルを上げました!漫画を読み込んで、コマ枠 (frame) / 人物 (body) / 台詞 (text) の 3 クラスを検出するモデルです! ラフなネームもある程度読み込むので、これを利用して漫画制作補助ソフトとかを作りたいところ!!! huggingface.co/tori29umai/rtd…
とりにく tweet mediaとりにく tweet media
日本語
1
60
282
28.4K
mlops_community_jp retweetledi
O'Reilly Japan
O'Reilly Japan@oreilly_japan·
[New Book] 生成AIデザインパターン ift.tt/L713Yi9
日本語
0
20
105
10.9K
mlops_community_jp retweetledi
佐藤 竜馬 / Ryoma Sato
深層学習の高速化についてまとめた拙著 "Accelerating Deep Neural Networks" が Cambridge University Press から発売されます🎉 拙著『深層ニューラルネットワークの高速化』(技術評論社)をベースとしながら、投機デコードや KV キャッシュ圧縮など最新の話題を 50 ページ以上増補し、佐藤自ら英訳しました。 現在、Amazon US で予約でき、日本への発送も可能です。日本国内でも洋書店等で取り扱いがあると思いますのでぜひチェックしてくださいね。
佐藤 竜馬 / Ryoma Sato tweet media
日本語
2
70
500
35.6K
mlops_community_jp retweetledi
O'Reilly Japan
O'Reilly Japan@oreilly_japan·
また、同じく6月発行予定の『ゼロから作るDeep Learning ❻ ―LLM編』は、発売日が早まり、より早くお読みいただけるようになりました。✨6/3(水)✨発売予定です! どうぞよろしくお願いいたします!👀 books.rakuten.co.jp/rb/18483258/ amazon.co.jp/dp/4814401612
O'Reilly Japan tweet media
日本語
1
54
271
18K
mlops_community_jp retweetledi
LayerX Tech
LayerX Tech@LayerX_tech·
Sansan様主催「TechLead Conference 2026」で登壇した澁井の資料を公開しました🚀 LLM時代の検索アーキテクチャと技術的意思決定を題材に、人のための検索とAIエージェントのための検索設計についてお話ししています。 ぜひご覧ください!! speakerdeck.com/shibuiwilliam/… #TechLeadConf2026
日本語
0
20
147
9.2K
mlops_community_jp retweetledi
s.hiruta
s.hiruta@web_se·
AIエージェントからリソース作成など権限は最小権限にするなり、human-in-the-loopなり確認ステップいれるの大事 #mlopsコミュニティ
日本語
0
1
2
315
mlops_community_jp retweetledi
hamri@2026年〜MLエンジニア
技術の話からちょっと遠ざかって マインドセットみたいな切り口からの話も面白かった 実際ステークホルダーが複雑に混ざり合う現場ではかなり大事なことだと思う #MLOpsコミュニティ
mlops_community_jp@MlopsJ

来週4/21(火)にMLOps勉強会を開催します! ご登壇は株式会社スリーシェイク Sreake事業部 Akasan 様【MLOps導入のための組織作りの第一歩】になります。 ぜひご参加ください! mlops.connpass.com/event/389164/ #mlops #mlopsコミュニティ #llmops #agentops

日本語
0
1
2
358
mlops_community_jp retweetledi
Daisuke Okanohara / 岡野原 大輔
Looped Transformerのように、複数層からなるブロックを単位として再帰的に推論するモデルは、パラメータ数を抑えながら高い推論能力を実現できることから注目されている。本論文では、この種のモデルの内部挙動を分析している。 従来、こうした再帰が本質的な意味での深さを増やしているのかどうかは明らかではなかった。本研究では、再帰を重ねると各層がそれぞれ固有の固定点に収束し、モデル全体としては潜在空間上で周期的な軌道を形成することが示された。また各層の役割は変わらなかった。 このことから、ループによって新たな推論段階が生まれるわけではなく、同一の推論過程が繰り返されながら洗練されていく効果があることが確認された。多くの場合、1〜数回のループで挙動はほぼ安定する。 さらに、各ループで入力を再注入するInput Injectionを用いることで固定点への収束が安定化する一方で、不適切な正規化は挙動を不安定化させることも明らかになった。 コメント === Looped Transformerは今年に入り急速に増加しており、話題のClaude Mythosもこれを採用しているのではないかという指摘も見られる(未確認)。 パラメータを共有したまま計算を繰り返すことで、テスト時に計算量を増やし能力をあげつつパラメータ数やメモリ転送量を抑えられる点が有望視されている。 再帰を用いたアプローチ自体は従来から存在していた(Universal TransformerやDEQなど)が普及していなかった、昨年後半から一気に注目されたといえる。 本手法扱っている例では、2〜8層程度のブロックを単位として繰り返す構造を採用し、特別な訓練手法を必要とせず、標準的な学習手法を使っている。 また、Looped Transformerは生成過程(他論文で10倍近く効率化達成と報告)や動画や制御など状態を持つ場合とも親和性が高く、今後、利用が急速に広がっていく可能性がある。
日本語
1
29
116
15.6K
mlops_community_jp retweetledi
龍一郎 (f.k.a Asei Sugiyama)
龍一郎 (f.k.a Asei Sugiyama)@K_Ryuichirou·
LLM の評価についてまとめたドキュメントが公開されました。基本は LLM-as-a-Judgeなんですが、開発環境と本番環境の違いや、本番環境での評価の目的を時間スケールをもとに整理したりと、割と頑張って書きました aiqm-initiative.cons.aist.go.jp/wg2.html
龍一郎 (f.k.a Asei Sugiyama) tweet media
日本語
2
28
219
16.6K
mlops_community_jp retweetledi
mizchi
mizchi@mizchi·
昨日言ってたcaveman多分悪影響の話、詳しく纏まってた zenn.dev/holy_fox/artic…
日本語
1
176
624
61K