ほーりーふぉっくす

5K posts

ほーりーふぉっくす banner
ほーりーふぉっくす

ほーりーふぉっくす

@Holy_fox_LLM

08 | 高校生 | LLMエンジニア (専門は合成データとRLAIF, AIキャラクター)| JOAI 2026 日本二位

コンピュートと想像力で世界を拡張する Katılım Ocak 2023
339 Takip Edilen4.8K Takipçiler
Sabitlenmiş Tweet
ほーりーふぉっくす
AItuber向けのモデルを新しく作成しました! SDG_LOOMで作成したデータ130kを含む175kのデータでトレーニングされたモデルになります! 寄り添うような雑談・より自然な日本語スタイル・適切なMarkdown出力ができるようなモデルになります! huggingface.co/DataPilot/Arro…
日本語
0
28
205
14.3K
ほーりーふぉっくす retweetledi
Photogenic Weekend
Photogenic Weekend@PhotogenicWeekE·
おさらいも兼ねて(笑) 下記仮想AITuberのペルソナデータから任意の人を選んでお題について喋る…と言うPromptをLLMで生成。ルックス、喋り方など画像/I2VするPromptを出力します。これはindex=10の子。お題は”好みの男性のタイプは?”。Grok API 720p@15秒からフルHDへUpscale。需要があればgithub公開しますw @Holy_fox_LLM huggingface.co/datasets/DataP…
Photogenic Weekend@PhotogenicWeekE

同じくindex=10。”好みの男性のタイプは?”。このバージョンはペルソナデータから話し方?推測を追加。訳すと”えー、めっちゃ生意気なトーンで、スラングばっかり使って、ちょっと高い声で、遊び心たっぷりな強調を混ぜて、関西弁も少し入れてね!”…ってなってるが、Promptとして効いてるか?は不明(笑) < 少なくとも関西弁は入ってない。そんなのLTX-2.3知ってるわけなくw

日本語
0
3
8
1.5K
ほーりーふぉっくす retweetledi
Ai2
Ai2@allen_ai·
Today we're releasing MolmoWeb, an open source agent that can navigate + complete tasks in a browser on your behalf. Built on Molmo 2 in 4B & 8B sizes, it sets a new open-weight SOTA across four major web-agent benchmarks & even surpasses agents built on proprietary models. 🧵
Ai2 tweet media
English
18
110
763
102.3K
ほーりーふぉっくす retweetledi
Google Research
Google Research@GoogleResearch·
Introducing TurboQuant: Our new compression algorithm that reduces LLM key-value cache memory by at least 6x and delivers up to 8x speedup, all with zero accuracy loss, redefining AI efficiency. Read the blog to learn how it achieves these results: goo.gle/4bsq2qI
GIF
English
676
3.8K
26.4K
11.2M
ほーりーふぉっくす
(フォロワーめっちゃ伸びてる。近いうちに書かないとな...)
日本語
0
0
5
431
ほーりーふぉっくす
オリジナルのローカルLLMを作るチュートリアル記事って需要ありますかね? データを作ってからそれを学習して、GGUFにするまでを一つの記事で書くような...
日本語
15
54
668
51.1K
ほーりーふぉっくす retweetledi
Takuya Akiba
Takuya Akiba@iwiwi·
Sakana Chatの公開です! 今回開発した「Namazu」モデルは、DeepSeek-V3.1等のオープンLLMに事後学習を適用したものです。優れた性能を維持しながら、日本での利用に適した振る舞いをします。Web検索機能についてもよく作り込んでいるので、日常用途には十分実用的だと思います。是非お試し下さい。
Sakana AI@SakanaAILabs

🐟 Sakana Chat 公開 🐟 Sakana AIは、Sakana Chatを無料公開しました。 chat.sakana.ai Web検索機能と高速レスポンスを備えたAIチャットです。日本国内から、どなたでもお使いいただけます。ぜひ、お試しください。

日本語
15
219
881
291.8K
ほーりーふぉっくす
Sakana Chat、ベータ版から触ってたけどC向けに解放してくれるんだという印象。 自分がGeminiでやってるタスクの7割は代替できるので、こっちも使ってみようかな? あと、モデルも公開してくれるとありがたいけど...
日本語
0
4
36
2.6K
ほーりーふぉっくす retweetledi
Sakana AI
Sakana AI@SakanaAILabs·
🐟 Sakana Chat 公開 🐟 Sakana AIは、Sakana Chatを無料公開しました。 chat.sakana.ai Web検索機能と高速レスポンスを備えたAIチャットです。日本国内から、どなたでもお使いいただけます。ぜひ、お試しください。
GIF
日本語
96
1.6K
5.7K
1.6M
ほーりーふぉっくす retweetledi
ほーりーふぉっくす
AItuber向けのモデルを新しく作成しました! SDG_LOOMで作成したデータ130kを含む175kのデータでトレーニングされたモデルになります! 寄り添うような雑談・より自然な日本語スタイル・適切なMarkdown出力ができるようなモデルになります! huggingface.co/DataPilot/Arro…
日本語
0
28
205
14.3K
ほーりーふぉっくす retweetledi
Odashi
Odashi@odashi_t·
この人の周囲にはよく分からん言い訳をする人が多いみたいですが、ひとまずABCIを1年運用できればフラグシップモデル相当が作れる計算力は手に入るので、たかがその程度であれば先進国の予算規模で投資を考えない方がおかしい、くらいに思っています。
日本語
1
27
209
83.2K
ほーりーふぉっくす retweetledi
Odashi
Odashi@odashi_t·
手元の実験結果では、ABCI 64ノードで300B-A30B相当(Qwenの一番大きい奴程度)を1か月学習するとおおよそ1.28T tokens進みます。ABCIは766ノードあるので、このうち512ノードを投入するとして、通信オーバーヘッドで2倍の計算時間、総学習量を30T tokensとした場合、約半年で学習が終わります。
Odashi@odashi_t

この人の周囲にはよく分からん言い訳をする人が多いみたいですが、ひとまずABCIを1年運用できればフラグシップモデル相当が作れる計算力は手に入るので、たかがその程度であれば先進国の予算規模で投資を考えない方がおかしい、くらいに思っています。

日本語
4
36
221
60.3K
ほーりーふぉっくす
@alfredplpl 基本的には並列ならSGLangで、単一リクエストレベルだったらllama.cppでいいと思います!
日本語
1
0
8
448
あるふ
あるふ@alfredplpl·
ローカルLLMを動かすナウいランタイムは?
日本語
2
3
17
14.7K
ほーりーふぉっくす
@alfredplpl vLLMも普通に使われてはいるんですけど、自分が作りたいような合成データを作成するようなワークロードではこっちの方が速度出るんですよね。 xAIとかは完全にSGLangですし
日本語
1
0
5
585
あるふ
あるふ@alfredplpl·
@Holy_fox_LLM 合成用途ではvllmが使われるものだと思ってました
日本語
1
0
4
961
ほーりーふぉっくす retweetledi
ほーりーふぉっくす
@alfredplpl SGLangです! (大規模並列用途では)それしか使ってないです。 まあ、ランタイムは用途に合ったものを選ぶのが一番ですけど...
日本語
1
3
14
2.1K