tymo
625 posts

tymo retweetledi
tymo retweetledi
tymo retweetledi

かつて現代図書から出た『ジャイナ教入門』が講談社学術文庫入り.ついに日本も「文庫でジャイナ教入門が読める国」にまで文明が発展しました.なお私が解説を書いてます
ジャイナ教 渡辺 研二(著) - 講談社 | 版元ドットコム hanmoto.com/bd/isbn/978406… @hanmotocomより
日本語
tymo retweetledi

物理学者がClaudeを大学院生のように指導しながら、実際の理論物理研究における計算を進めた記録が公開されている。約2週間にわたり、110本以上のドラフトを重ね、入出力を合わせて3600万トークンを費やして論文に到達している。
AIが自律的に科学研究を進めたわけでなく、大学院生を指導するのと同じように、継続的にフィードバックを与えながら作業を進めた。その際には、次のルールを課した
・プロンプトだけを与え、ファイルを人が直接編集しない
・人が計算結果を直接与えないこと
・一方で、他のモデルが出した計算結果を与えることは許される
AIは非常に粘り強く、計算、コード実行、文書化を進めていった一方で、誤りをごまかしたり、見栄えのよい結果に寄せたりする傾向もあった。そのため、最終的な検証には強い専門知識が不可欠であったと述べられている。
通常は数カ月かかる研究が2週間で終わっている。
この事例はソフトウェア開発と同じように他の分野においても、人が細部の実装、計算、文書化をすべて手作業で担うのではなく、そのかなりの部分をAIに委ね、人間は問題設定、方向づけ、検証に集中するようになる可能性を示している。
個人的に興味深いのは、全てのノウハウが環境に蓄積されているという点である。
今回、初回として2週間かかったとしても、2回目以降は再利用によって大きく効率化できると考えられる。
1回目に構築したさまざまな環境、たとえば計画、途中結果、木構造で整理されたファイル群などを再利用できるなら、2回目以降はより短い時間で、より深い問題に取り組めるだろう。
この意味で、専門知識やノウハウは、環境側にも埋め込まれていくことになる。
さらに興味深いのは、こうして得られた知識が、LLMの学習時には存在しなかったにもかかわらず、人間のわずかなフィードバックをプロンプト経由で受けることで形成されている点である。
では、このような知識を環境経由のものとして蓄積するだけでなく(毎回環境をKVキャッシュで読み込み検索で参照するのでなく)、元のモデル自身の能力として直接取り込んでいくには、どのような方法がありうるのだろうか。
日本語
tymo retweetledi

Vibe physics: The AI grad student anthropic.com/research/vibe-…
English










