𝕄𝕚𝕟𝕠𝕣𝕚🏍️

441 posts

𝕄𝕚𝕟𝕠𝕣𝕚🏍️ banner
𝕄𝕚𝕟𝕠𝕣𝕚🏍️

𝕄𝕚𝕟𝕠𝕣𝕚🏍️

@helmetti

Executive Specialist (AI/ML) & Senior Director, MBA @GoogleDevExpert. Raised in 🇲🇾 (Opinions are mine)

Japan Katılım Mayıs 2010
46 Takip Edilen1.8K Takipçiler
𝕄𝕚𝕟𝕠𝕣𝕚🏍️
ベクトルおじさんが見るに非構造化データの取り扱いがわかんないから手っ取り早くLLMに突っ込めばいいじゃん的なモノを強く感じますね。別にベクトル化のモチベーションは距離測る為だけではなく、コンテクスト周りや手法も進化してるしマルチモーダルで埋め込める今初手LLMはディープでポンと同じ香り
Kazunori Sato@kazunori_279

ベクトル検索の界隈をLLM以前から見ていると、起きてることはすごく単純。これまでの流れ:LLMすげえ→これからはベクトル検索だ!(根拠なし)→単純な類似検索やってみた→精度でねえ!面倒だからエージェントの推論任せでgrepしよう(←いまここ)。 俺が2年前に書いたような議論(単純な類似検索では検索品質低いし、IRのプロはみんな自前の推薦モデルを使う)は、RAG界隈では今だにほとんど見かけない。推薦モデル作る方法を今から学ぶより、"agentic"に済ませたほうが速いし結果がすぐ出るから。もちろんそれで済むデータ規模とレイテンシとコスト要件なら、最初からベクトル検索はいらない。 こういうLLM界隈の右往左往とは関係なく、大手各社は10年前も現在も何も惑わされずにベクトル検索でコンテンツ検索と推薦を数十億人規模に提供し、高い検索品質と大きな収益を上げている。 cloud.google.com/blog/products/…

日本語
0
0
2
427
𝕄𝕚𝕟𝕠𝕣𝕚🏍️ retweetledi
Kazunori Sato
Kazunori Sato@kazunori_279·
ここで私が言う推薦モデルとは、構造化データのみを用いる伝統的な統計モデルではなく、two-towerモデルのようなクエリテキストと回答テキスト、クエリテキストとマルチモーダルコンテンツ等の非構造化データ間の埋め込みの関係性を学習するディープモデルを指します。さらに特徴量として構造化データや時系列データから作る埋め込みも合わせて使うケースが多いです。Xのタイムラインもそうやって作られますし、弊社や大手各社のサービスの検索や推薦もほとんどこれに似た仕組みです。 もちろん、ここにLLM推薦を組み合わせるととても強力です(レイテンシとコストの制約が許せば)。私もgenerative recommendationという呼び方で2年前くらいからそうした記事を書いてきました(Agenticってキーワードはまだバズってなかったので)。ただ、現在の多くのベクトル検索不要議論は、上述のような「ベクトル検索の基本」を飛ばしたまま安易に後者のバズに乗ろうとする流れが多く、プロフェッショナルな議論を見ることは少ないと思っています。 cloud.google.com/transform/infi…
日本語
1
6
56
4.9K
Shuhei Fujiwara
Shuhei Fujiwara@shuhei_fujiwara·
Copilot 周りの連携が強いので VSCode 使ってたけど、飽きてきたので Emacs に帰ろうかな
日本語
1
0
3
365
𝕄𝕚𝕟𝕠𝕣𝕚🏍️
明日めっちゃ早口でしゃべります
GDG Greater Kwansai|4/19 BuildwithAI 開催@gdgkwansai

📢 4/19(日) Build with AI Kansai 2026 「Gemini Embeddings 2 が拓くマルチモーダルエンベディングスの世界」 Minori MATSUDA 氏 (@helmetti) Gemini Embedding 2 のイノベーションの概要と、Vertex AI Vector Searchでのリファレンスを紹介します。 👇詳細 & 参加登録 gdgkwansai.link/bwai26x

日本語
0
2
4
1.3K
𝕄𝕚𝕟𝕠𝕣𝕚🏍️
次元がもったいないマンはあながち間違いでもなかった!
Kazunori Sato@kazunori_279

Grokファクトチェックした。そんな的外れではなさそう: 本投稿(@kazunori_279要するに、「LLMの高次元埋め込み空間をそのままグラフ(Knowledge Graph)に完全に移し替えて維持するのは現実的に難しい」という指摘です。 ファクトチェックのポイント「king - man + woman = queen」例→ 完全に事実。2013年のWord2Vec論文(Mikolov et al.)で示された有名なアナロジー計算です。以降、GloVeや現代のLLM埋め込みでも同様の幾何構造(高次元空間での意味的関係)が確認されています。投稿の例は正確です。 Google Knowledge Graph(KG)は「低次元な関係性」 → 正しい。Google KG(および一般的なKG)は、主に「entity1 — relation — entity2」という**三元組(triple)**で構成され、関係性が比較的低次元・シンボリックです。クエリが高速で正確なのはこの構造のおかげです。 LLMが捉える「高次元のセマンティクス」 → 正しい。現代の言語モデル(BERT以降)の埋め込みベクトルは通常512〜4096次元以上で、無数の幾何構造(アナロジー、類似度、ニュアンス)を保持しています。これを「漏らさず」グラフに射影するのは、情報損失の観点で極めて困難です。 「高次元グラフに射影して保守するのは大変」「次元削減し過ぎると昔のグラフDBと大差ない」 → 技術的に妥当な指摘。現在、GraphRAG(Microsoft)や知識グラフ+RAGのハイブリッド手法が海外で注目されていますが、多くの実装ではノードに高次元ベクトルをそのまま保持するか、ベクターDBと併用しています。 純粋にグラフDB(Neo4jなど)だけで高次元構造を「完全に」保守しようとすると、ストレージ・クエリコストが爆発的に増えたり、次元削減(PCAなど)せざるを得なくなります。結果として「昔のシンボリックKGに戻る」リスクは実際に議論されています。

日本語
0
0
1
356
𝕄𝕚𝕟𝕠𝕣𝕚🏍️
BQMLのML.GENERATE_EMBEDDINGにムルタァィエンベディングスが生えておる!'multimodalembedding@001'とあるけどこれはGemini Embeddings2と違うの?どうなの?!最大512次元なので別のモデルの予感。埋め込みおじさんの未来は明るい #multimodalembedding" target="_blank" rel="nofollow noopener">docs.cloud.google.com/bigquery/docs/…
日本語
0
0
1
178
𝕄𝕚𝕟𝕠𝕣𝕚🏍️
全文検索Namazuなつかしいな~と思いつつあれはPerlだったので辛い思い出しかなく特に正規表現が鬼でPythonが10人書いたら9人はほぼ同じコードっぽくなるのに対してPerlだとフリーダムすぎて人のコード読んでもわからん!ばっかりだった気がする。どれぐらいエグいかというとregexで1冊本が出るほど
𝕄𝕚𝕟𝕠𝕣𝕚🏍️ tweet media
日本語
0
0
0
115
𝕄𝕚𝕟𝕠𝕣𝕚🏍️
あ、ちなみにこれはEmbeddingsの近傍検索デモなので類似もガッツリちゃんと出ております!そこに注目!
日本語
0
0
0
110
𝕄𝕚𝕟𝕠𝕣𝕚🏍️
すげー!!!今デスクに置いてあったコカ・コーラゼロを映しながらこれなに?って聞いたら「これはコカ・コーラゼロでラベルから日本の物と思われますね!」やって! Live APIと組み合わせるのがセンスありすぎて鼻血ちょっと出た
Kazunori Sato@kazunori_279

Gemini Embedding 2とVector Search 2とADK Gemini Live API Toolkitで100万件の商品からリアルタイム&マルチモーダル検索できるライブデモ作った。モデルが世界をどう見てるか覗く万華鏡のようなUX。誰でも試せます:LensMosaic - a live multimodal shopping demo youtu.be/SgMn-6q8Qg8?si…

日本語
1
1
1
1.4K
𝕄𝕚𝕟𝕠𝕣𝕚🏍️ retweetledi
Kazunori Sato
Kazunori Sato@kazunori_279·
Gemini Embedding 2とVector Search 2とADK Gemini Live API Toolkitで100万件の商品からリアルタイム&マルチモーダル検索できるライブデモ作った。モデルが世界をどう見てるか覗く万華鏡のようなUX。誰でも試せます:LensMosaic - a live multimodal shopping demo youtu.be/SgMn-6q8Qg8?si…
YouTube video
YouTube
日本語
1
9
47
7.2K
𝕄𝕚𝕟𝕠𝕣𝕚🏍️
PaliGemmaではセグメンテーションで画像などのモーダルを処理しておるわけですがそれ機械が理解できるなら同一空間に埋め込めるじゃ~んということでイキオイなんでも1個の空間に埋め込むモチベーションがもりもり湧いてきた。アノテーションなんか人類にはいらんかったdeepmind.google/models/gemma/p…
日本語
0
0
3
157
𝕄𝕚𝕟𝕠𝕣𝕚🏍️
私はバイクに乗っておるので良くヨーロッパにパーツをポチるんですが当然半角英数字で住所氏名を入力するのですが住所がバグってまずFedExやDHLの通関で止められるか日本郵便ヤマト佐川が全角英字しか受け付けないせいで遅延が続いている。そして今中東経由が遅延するので更に遅い。いー!
日本語
0
0
0
1.8K
𝕄𝕚𝕟𝕠𝕣𝕚🏍️
サントリーさんのADK2α解説。爆速で進化してるので人間はどこで判断するかどっちかというと既存業務フローのBPRとセットじゃいともったいないですね。エージェントに業務を寄せるのである
Kazunori Sato@kazunori_279

[ADK] ついにグラフ構造ワークフローが来た!ADK 2.0 αで導入されたWorkflow RuntimeとTask APIを最速で触る|Keisuke Oohashi zenn.dev/soundtricker/a… #zenn

日本語
0
0
3
510
𝕄𝕚𝕟𝕠𝕣𝕚🏍️
これで早朝未明に英語でHomeに怒鳴りつけなくて良くなった。基本がFlashだと思われるのですがAndroid Autoがまだ日英対応なのでマルチリンガル家庭にやさしくしてほしい。 jetstream.blog/2026/03/18/gem…
日本語
0
1
1
623
𝕄𝕚𝕟𝕠𝕣𝕚🏍️
暗黙知が渦巻いて俗人化するのは人間エンコーダの性能が悪くて埋め込みができてないだけの気がする。人によって言語化するエンコーダの性能が違うのがボトルネックと思われるので一個の高性能なembeddingsモデルをみんなで使えばみんながシアワセになる気がそこはかとなくする
日本語
0
0
0
124
𝕄𝕚𝕟𝕠𝕣𝕚🏍️ retweetledi
Kazunori Sato
Kazunori Sato@kazunori_279·
Advent of Agent season 2にADKとVector Search 2.0で作るAgentic RAGの記事を掲載しました(英語) Check out Google Cloud's Advent of Agent Calendar 2025: Grounding with ADK: Agentic RAG with Vector Search 2.0 - Day 15 of Advent of Agents! Link -> adventofagents.com youtube.com/watch?v=IB6cXN…
YouTube video
YouTube
日本語
1
3
19
3.1K
𝕄𝕚𝕟𝕠𝕣𝕚🏍️
これはなんでもベクトルにすればいいじゃないおじさんにはレボリューションです。時代が超高次元においついてきた。MRLで3072次元で情報量もモリモリ。人類が脳を直結してベクタでコミュニケーションする日も近い。議事録も脳にスライドと共に全部埋め込む。
Kazunori Sato@kazunori_279

エンべディングの話題がトレンド入りするなんて - Googleが初のネイティブマルチモーダル埋め込みモデル「Gemini Embedding 2」を公開 x.com/i/trending/203…

日本語
0
0
3
401
𝕄𝕚𝕟𝕠𝕣𝕚🏍️
触れば触るほどヤバしなのでGeminiちゃんがどんだけ画像等マルチモーダルを理解するかにより単一の意味空間にモダリティ問わず埋め込まれてしまう。とてもヤバしで推薦システムとか近傍検索する時に似た画像かつ似た商品などの異なるベクトルの処理に悩まなくて良くなる blog.google/innovation-and…
日本語
0
0
2
235