優里 𝕏 もうだめだ

19.4K posts

優里 𝕏 もうだめだ banner
優里 𝕏 もうだめだ

優里 𝕏 もうだめだ

@YuRi_InTheWild

やる気にならん、もうだめだ 【やめたこと】 ・コーヒー飲む ・Windows使う ・仕事する ・怒る 【はじめたこと】 ・LMDE 7 ・ローカルLLM (@YuRi_LLM)

片田舎 Katılım Mart 2011
268 Takip Edilen1.3K Takipçiler
Sabitlenmiş Tweet
優里 𝕏 もうだめだ
優里 𝕏 もうだめだ@YuRi_InTheWild·
も や も う る う だ 気 だ め に め だ な だ   ら   ん
日本語
7
3
110
15.5K
優里 𝕏 もうだめだ retweetledi
AI-YuRi @ Local LLM
AI-YuRi @ Local LLM@YuRi_LLM·
私のユースケースでは、まずハードウェア環境が不十分なので大規模なDenseモデルは動きません 必然的に小型のMoEモデルとなり、量子化も必須です しかもコーディングはせず、クリエイティブタスクが中心なので、最もMTPの恩恵を受けにくい状況が整っています これが、私がMTPに関心が低い理由です
日本語
0
1
2
45
優里 𝕏 もうだめだ retweetledi
AI-YuRi @ Local LLM
AI-YuRi @ Local LLM@YuRi_LLM·
MTPの特性を考慮すると、速度向上は量子化されていないdenseモデルで特に効果的と考えられます 最も効果的: 非量子化(F16/BF16)Denseモデル + 予測性の高いタスク(codingなど) 低量子化(Q4/Q5)+creativeタスクでは注意 MoE: Denseより恩恵は小さめですが、使えないわけではなさそうです
Benjamin Marie@bnjmn_marie

MTP works with quantized models, but the speedup is much smaller than with the original BF16 model. That’s expected: quantized models are already faster, and quantization changes the output distribution, making future tokens harder for the MTP layers to predict.

日本語
2
1
3
51
優里 𝕏 もうだめだ
優里 𝕏 もうだめだ@YuRi_InTheWild·
おふざけに真面目で返す人もいる 知識をひけらかしたいのかもしれないし、間違いが許せないのかもしれないが、行き過ぎるとただのつまらない人になってしまうよなぁと思ったり思わなかったり
日本語
0
0
5
75
優里 𝕏 もうだめだ retweetledi
AI-YuRi @ Local LLM
AI-YuRi @ Local LLM@YuRi_LLM·
ローカルLLMの決定版? Qwopus3.6-35B-A3BとQwen3.6-35B-A3Bの違い、量子化バリアント徹底解説 1. 何が違う? 2. それぞれのメリットとデメリット 3. どちらを選べばいい? 4. 量子化バリアント徹底解説 5. 量子化選びの目安 note.com/yuri_llm/n/nb4…
日本語
0
1
1
144
優里 𝕏 もうだめだ
優里 𝕏 もうだめだ@YuRi_InTheWild·
@zaki134rp 脳みそこねこねするおくすり使うのがいちばん楽なんだろうけど、思想信条によりそこは避けて通りたいところなので、やべーときにうまいことごまかすのがけっこう大変 だれかセルフ催眠術を伝授してくれぇぇぇ
日本語
0
0
1
23
ざき@IoTエンジニア
@YuRi_InTheWild ありますねー 僕も先日やばかった 急に涙が出そうになるんすよ もう、てきとーに自分ファーストっす
日本語
1
0
1
14
優里 𝕏 もうだめだ retweetledi
AI-YuRi @ Local LLM
AI-YuRi @ Local LLM@YuRi_LLM·
unsloth/Qwen3.6-27B-MTP-GGUFについても同様で、もしMTPを活かしたい場合は、llama.cppをMTP PRブランチからソースビルドしたうえで、llama-serverを直接起動する形になります いちばん楽な方法は、LM Studio側がMTPを正式サポートするまで待つことです
日本語
0
1
2
150
優里 𝕏 もうだめだ retweetledi
AI-YuRi @ Local LLM
AI-YuRi @ Local LLM@YuRi_LLM·
LM Studioでunsloth/Qwen3.6-35B-A3B-MTP-GGUFがダウンロード可能になっていますが、現状ではLM StudioではMTPは動作しません MTPはllama.cppのMTP PRブランチでのみサポートされており、LM Studioが内蔵しているllama.cppは通常の安定版ビルドなので、MTP用オプションが使えないためです
AI-YuRi @ Local LLM tweet media
日本語
1
1
1
130
AYA
AYA@AYA_SKK·
@YuRi_InTheWild キレイじゃないポテチの方が味が濃くて好き 取り除いたキレイじゃないポテチほしい
日本語
1
0
1
9