つじもん retweetledi
つじもん
66.4K posts

つじもん
@qbd
◆業務:学習型無線信号解析システムの開発◆資格:1アマ/1陸技、ES/SC/NW、知財検定2級他◆趣味:読書(ミステリ)、観劇◆M2 Mac mini/iPhone 16◆Ryzen/Radeon好き◆HHKB Studio/Lofree FLOW Lite◆ex JQ2QBD
Tokyo, Japan Katılım Nisan 2008
539 Takip Edilen744 Takipçiler
つじもん retweetledi

プレミアムではなくてグリーン車での出来事なのですが、私は騒ぐお子様が苦手なので新幹線は基本グリーン車乗るんですね。
いないわけではないけど比較的少ないので。
しかしその日は、新大阪でグリーン車乗ったら、ずーーーーーっと喋ってるお子様がいまして、まぁ騒いでるわけじゃないからいいかぁと思ったけどそれにしてもまぁずっとお話が止まらなくて。
親御さんが「ちょっと静かに!」と言っても「静かにぃ!キャハハ!」みたいな感じで結構まじでうるさかった。
名古屋に着いて人の出入りがあった時に、色んな人がお話し子どものところでざわついてて、何か有名なお子様なのか?と思い、名古屋から発車してもまだおしゃべりしてるからトイレ行くついでに見に行ったらなんとですね、しゃべってたの、
鳥でした………。
本マグロ@maguro_nesoATOS
僕もひのとりプレミアム乗った時、この家族みたいにしつけのなってないガキがいて大声出しまくったり車内歩き回ったりでプレミアム気分台無しだった… 700円はバグよ 客層向上のために値上げを強く希望する
日本語
つじもん retweetledi
つじもん retweetledi

新しい学生が入って研究テーマを策定する研究室の多い時期になったかと思います。研究分野サーベイのやり方について昨年基調講演をした資料を再度共有します。どなたかの参考になれば幸いです。(ただ古い資料につき生成AIの使い方はあまり詳しく議論していません。)
docswell.com/s/4431039276/5…
日本語
つじもん retweetledi
つじもん retweetledi
つじもん retweetledi

一保堂のほうじ茶、大袋は終売&店頭では一人一袋の購入制限。はて?と思ったら、お店のHPに丁寧なご説明が。近年の海外での抹茶ブームにより、生産現場での抹茶への切り替えが増大、それにつれ抹茶以外のお茶、特にほうじ茶のような番茶の生産量激減が予想されるとのこと。
ippodo-tea.co.jp/blogs/news/202…
日本語
つじもん retweetledi

10年以上付き合いのあるXで知り合った友人と結婚しましたコレはマジでありです。
欠点もおっしゃるとおりです
くそめろ@Ksmldy
Twitter婚活って割とアリだと思うんだよね。会ってみてまず内面の不一致が少なさそうだし。欠点があるとしたら配偶者がTwitterやってるってことだけだよ
日本語
つじもん retweetledi
つじもん retweetledi
つじもん retweetledi
つじもん retweetledi

物理学者がClaudeを大学院生のように指導しながら、実際の理論物理研究における計算を進めた記録が公開されている。約2週間にわたり、110本以上のドラフトを重ね、入出力を合わせて3600万トークンを費やして論文に到達している。
AIが自律的に科学研究を進めたわけでなく、大学院生を指導するのと同じように、継続的にフィードバックを与えながら作業を進めた。その際には、次のルールを課した
・プロンプトだけを与え、ファイルを人が直接編集しない
・人が計算結果を直接与えないこと
・一方で、他のモデルが出した計算結果を与えることは許される
AIは非常に粘り強く、計算、コード実行、文書化を進めていった一方で、誤りをごまかしたり、見栄えのよい結果に寄せたりする傾向もあった。そのため、最終的な検証には強い専門知識が不可欠であったと述べられている。
通常は数カ月かかる研究が2週間で終わっている。
この事例はソフトウェア開発と同じように他の分野においても、人が細部の実装、計算、文書化をすべて手作業で担うのではなく、そのかなりの部分をAIに委ね、人間は問題設定、方向づけ、検証に集中するようになる可能性を示している。
個人的に興味深いのは、全てのノウハウが環境に蓄積されているという点である。
今回、初回として2週間かかったとしても、2回目以降は再利用によって大きく効率化できると考えられる。
1回目に構築したさまざまな環境、たとえば計画、途中結果、木構造で整理されたファイル群などを再利用できるなら、2回目以降はより短い時間で、より深い問題に取り組めるだろう。
この意味で、専門知識やノウハウは、環境側にも埋め込まれていくことになる。
さらに興味深いのは、こうして得られた知識が、LLMの学習時には存在しなかったにもかかわらず、人間のわずかなフィードバックをプロンプト経由で受けることで形成されている点である。
では、このような知識を環境経由のものとして蓄積するだけでなく(毎回環境をKVキャッシュで読み込み検索で参照するのでなく)、元のモデル自身の能力として直接取り込んでいくには、どのような方法がありうるのだろうか。
日本語
つじもん retweetledi

小学校から信長の野望をやっていた影響で中学入学時点で旧国名や大名家は全部知ってたし、武将300人・知行の概念・主要な茶器の名称・茶人の名前・堺商人の名前・官位の名称・城の名称・今川義元が実は名将・一向一揆めっちゃ強いなど知っていたから信長の野望は偉大。最新作は入会地なども登場する
フクロウさん@Msowl_FUKURO
息子に『信長の野望』というゲームを与えて3ヶ月。天下統一のために息子が地図を書きだした。 息子「まま見て。日本は西の方は小さな国が多いんだよ。特に京あたり。でも東の方は国がデカいんだよね」 🦉「ほう…何が違うと思う?」 とか 息子「上杉謙信の家臣は元服しないんだよ」 🦉「なんで?」
日本語
つじもん retweetledi

まじかあ…「研究テーマを提示するだけで、OpenAlex、Semantic Scholar、arXivからの実際の文献、ハードウェア対応サンドボックス実験(GPU/MPS/CPU自動検出)、統計分析、マルチエージェント査読、NeurIPS/ICML/ICLRに対応した学会発表用LaTeX形式の論文が完成します。」github.com/aiming-lab/Aut…
日本語
つじもん retweetledi
つじもん retweetledi
つじもん retweetledi
つじもん retweetledi



















