
@naoski おお、これです!なんかいい話だったという記憶しかなかったんですが、内容も結構そろっていて、具体的に覚えてなくても、強い影響を受けてそうだなあと思いました。良い記事ありがとうございます!地頭みたいなものも、それはそれであるだろう、と僕は思ってしまいますが
日本語
shinichiro hamaji
3.8K posts




in context learning を学習とは言わないだろうというツッコミが多いけど、どっちかというと事前学習含めて帰納的AIは全て「参照して答えているだけ」感がある(し、それこそが知性という気もする(ぷよぷよクソつよいmayahさんが「ぷよぷよはテーブル引きしてるだけ」と言っていたので))



「参照して答えているだけ」は専門的に正しくありません。in-context learning(文脈中学習)といって、ある程度高性能なモデルはプロンプトから学習ができますし、そのin-context learningができるからこそ、重みが固定でもこれだけ凄いことができるので(もちろん、LLMのtrainingという意味での学習とは違うのですが)。







319でhash使ってて草 これはなに??????

