
Franny Philos Sophia
42.1K posts

Franny Philos Sophia
@cactaceae
Elanare Institute| Trained under Hiroshi Shimizu at his private Institute, making me a junior colleague of Ikujiro Nonaka and Yoshiki Kuramoto


AIエージェントは、 増やすほど賢くなる。 多くの人がそう信じています。 Google Researchの研究結果は真逆でした。 構造なしのマルチエージェントは エラーが17.2倍に増幅される。 ───────────────── 一方、Anthropicのオーケストレーター型は シングルエージェントを90.2%上回った。 ただしトークン消費は15倍。 ───────────────── Devin開発元のCognition AIは 「Don't Build Multi-Agents」と 題した記事を公開。 ───────────────── 業界の結論はシンプルです。 「まずシングルエージェントで始めよ。 マルチエージェントは、構造的な理由がある時だけ。」 ───────────────── つまり、エージェントの数ではなく 設計の質が全てを決める。 ───────────────── 【 各研究の詳細はこちら 】 Anthropic "Building Effective Agents": anthropic.com/research/build… Cognition AI "Don't Build Multi-Agents": cognition.ai/blog/dont-buil… Google Research "Towards a Science of Scaling Agent Systems" research.google/blog/towards-a…





Transformersのsoftmaxによるattentionの計算は、「どのトークンが原因か?」「どこから情報が来るか?」という事後確率であり、Transformers はベイズの確率分布で説明できるの?! 今までなんでChatGPTが上手く行くか数学的に説明されてなかったけど、ベイズで出来るんじゃん。すごっ

ちな、別に揚げ足取りやAI下げしたいわけじゃなくて、原理的な限界を見つけないとその限界は越えられないって話よ

なんかずーっどAIの原理的な限界の研究してるから、みんなが触ってるAIと私が触ってるAIが同じものなのか不思議になるよ まぁジャーナルの査読者絶賛してるから間違ってないと信じたいが。

