Kotaro Kinoshita / MLism

1.4K posts

Kotaro Kinoshita / MLism

Kotaro Kinoshita / MLism

@KINOCOAI

MLism Inc. / https://t.co/S3XdNdiidI 会社経営は趣味、本職はAIエンジニア/YomiTokuの商用利用に関してはhttps://t.co/rWuzpdvY6Xにお問い合わせください/機械学習、 画像処理、文書画像解析

Katılım Ekim 2024
1.1K Takip Edilen2.3K Takipçiler
Sabitlenmiş Tweet
Kotaro Kinoshita / MLism
Kotaro Kinoshita / MLism@KINOCOAI·
日本語特化AI-OCR「YomiToku-Pro」をAWS Marketplaceで商用提供開始しました。データはお客様のAWS環境内で専用APIにより安全に処理され、社内文書や機密データも高速・高精度に解析可能です。 併せてOSS「YomiToku-Client」も公開。CLI・バッチ処理・可視化機能でAPIの性能を最大限に引き出します。
Kotaro Kinoshita / MLism tweet mediaKotaro Kinoshita / MLism tweet media
日本語
4
143
803
104.2K
Kotaro Kinoshita / MLism
今年から特定の曜日は打ち合わせを入れないようにしてるけど正解。打ち合わせが散発的に入ると深く考える仕事ができない。打ち合わせは打ち合わせ、作業は作業で日程をまとめたほうが効率が良い。
日本語
0
0
4
264
Kotaro Kinoshita / MLism
研究室、敷金、礼金、そのほか初期費用(保険金、保証金)も全てゼロ
日本語
0
2
4
403
Kotaro Kinoshita / MLism
@Toukairinn_FUZZ 施設が古め、部屋が狭め(数人規模)なのはあります。施設内に広い部屋もあるので人数増えたら引越す予定です!2倍の規模でも10万切るので、それでも安いです。
日本語
1
1
1
421
Kotaro Kinoshita / MLism
研究室、家賃5万円切って、家から自転車通勤圏内、200V電源ひけるので素晴らしい
Kotaro Kinoshita / MLism tweet mediaKotaro Kinoshita / MLism tweet media
日本語
0
3
42
7.7K
Kotaro Kinoshita / MLism
GPUのインフラ整備は7、8年は遅れているので、今更、計算機資源で戦う領域で勝負すべきなのかは甚だ疑問
日本語
0
1
1
456
Kotaro Kinoshita / MLism
補助金を直接、一過性のコスト負担として、企業にぶん投げるのではなくGPUデータセンターの拡充とかインフラ、公共財として確実に残るものに投資したほうが良いと思う。 そもそもGPUの絶対数が足りないわけで、そこを割安で利用できるインフラ拡充があれば、嬉しく利用料は利用者負担でいいと思う。供給量が増えれば料金は下がると思うけど。民間企業のGPUを増やすのではなく、公共的に利用できるGPU。民間にGPU配っても価格は落ちないと思う。
シバタナオキ Naoki Shibata@shibataism

誤解が産まれると良くないので、少し補足も兼ねて書いておきます。 僕は、日本(というか米中以外の国)の国産LLMなんて絶対に上手く行かないし、そこに税金を投じるなんてとんでもない、とずっと言っています。 内閣府に呼ばれた時も、経産省に呼ばれた時も、自民党に呼ばれた時も、正直にはっきり言いました。 ところが、最近、国産LLMが上手くいく方法があるかもしれない、スケーリング則の時代は終わる、1年待てばモデルサイズが10分の1になる、みたいに反論してくる人が結構いるんですよね... なので、ちゃんと僕のスタンスを書いておきます。 1) LLMとSLMを混同すべからず LLMの最初のLは「Large(大規模)」のLです。 日本(というか米中以外の国)も、SLM(Small Language Model)は作るべきだと思います。SLMはよりパラメーターの少ない燃費の良いモデルで、用途特化型のことが多いです。 これは絶対に作った方が良い。ただ、これは究極の性能(知性)を追い求めるLLMとは違うんです。LLMがF1カーだとしたら、SLMはプリウスです。 僕が言っているのは、最高性能のF1カー(LLM)を作る競争は米中にしかできないですよ、という話をしています。 「スケーリング則の時代は終わる」 「1年待てばモデルサイズが10分の1になる」 みたいな話をしている人は、「F1カーなんてどうせ道路で走れないんだから、SLMでいいじゃん」という話をしているわけですが、SLMがLLMに追いつくこともなければ、完全に代替することもありません。 2) SLMを作るのには賛成だが、それは民間企業が営利目的でやればいい SLMを作るのは、日本(企業)もやった方が良いと思いますが、そこに税金を投じる必要はないと思います。民間企業が営利目的で開発すればいい。(国防上必要なら、民間企業が作ったSLMのうち、性能が良いものを、防衛省なり政府なりがお金を払って使えばいいだけです。) あたかも米中のLLMに匹敵するようなレベルのものが作れるかのような体裁で補助金を作って、実際に出てくるのがSLMというのは全く筋違いだと思います。 --- * --- 多くの場合において、「国産LLMを税金で」と叫んでいる人は、その人達が補助金が欲しいような立場にいる人が多いので、ポジショントークじゃないの?と思うことが多々あります。。。

日本語
0
0
5
975
Kotaro Kinoshita / MLism
人が成長するには問題を問題だと認知する必要がある。人が認知する情報レイヤーが狭いと問題自体を認知できないので、改善ループそのものが回らない。つまり、認知できる情報の深さ、広さ、観察能力がその人の成長の上限になるのでは?という最近の仮説。 もう少しいうと問題は定量的に測定可能で顕在化して目に見えるものと、受動的なフィードバックが得られない見えない問題もある。後者の認知が難しいが重要。 だから、努力云々よりまずは自分がどれだけ情報を観測できてるかを疑ったほうがよいかもしれない
日本語
0
0
2
344
Kotaro Kinoshita / MLism
ネット上の情報って断片的で文脈がないことが多いけど、断片的な情報処理に慣れすぎて、体系化情報の処理や情報の構造化能力など認知能力に影響ってあるのかな。 一般的に情報は前後の文脈ありきで独立、散発的な情報はほとんどないのだけど、断片化情報を用いたパターンマッチに偏り、情報の文脈を考えない、理解できない人が増えてる気がする。 よく見る二元論の議論とか文脈無視のまさにそれ。情報量が多すぎて思考の節約の意味もあるのかもしれない
日本語
0
0
1
429
Kotaro Kinoshita / MLism
YomiTokuは補助金・助成金受給なし、外部出資もなし。開発費はすべて個人で負担し、AIモデルも個人でスクラッチ学習。 発生した売上は研究開発に再投資し、研究→実装→収益→再学習のループを回す自給自足型のAIプロジェクトです。
日本語
1
1
26
1.1K
Kotaro Kinoshita / MLism
単純逐次処理だとタスク精度いまいちになりがち
日本語
0
0
0
183
Kotaro Kinoshita / MLism
人が仕事をする上でもTransfomerのAttention的な考えを持つことは大事だよねと思う。タスク全体の文脈参照と重みづけ
日本語
1
0
2
329
Kotaro Kinoshita / MLism
世の中、目立たないだけで待遇が良い仕事って他にも色々あると思う
日本語
0
0
0
190
Kotaro Kinoshita / MLism
SIerがなくなる議論は実際、事業会社は本業じゃないし、できるできない以前にめんどくさいから、自分でやらずにSIerにぶん投げる。外注の意思決定は自分たちでできる/できないが根本の理由ではない。 低コスト、小規模なものなら内製化も増えるだろうけど ただし、全体的なシステム開発の単価は下がると思う。とはいいつつ、人の工数が減る部分と減らない部分があり、SIerの担当領域はそこまで減らないと思われ、単価が落ちるのは下流のほう。むしろ、SIerは無くならないどころかSIer側に寄り、SIer側の内製が強くなるのでは?
日本語
0
0
1
435
Kotaro Kinoshita / MLism retweetledi
逆瀬川
逆瀬川@gyakuse·
Notionを今後も使っていくためにCLI作りました🎉 Notion MCP Serverのwrapperなので、Coding Agentにとって優しい&全ページの便利操作ができます。MCP自体をClaude Code/Codexに入れる必要もないので簡単です。 ぜひ使ってみてください nyosegawa.com/posts/notion-c…
日本語
1
45
367
39.2K