CopenDeCamp

41 posts

CopenDeCamp

CopenDeCamp

@lvlinf

Copenでキャンプするのが好きなITエンジニア

Katılım Kasım 2021
40 Takip Edilen52 Takipçiler
CopenDeCamp
CopenDeCamp@lvlinf·
@BIG3_PEAK_ADAPT ローカルLLMを自分でホストできるならSuperpowersプラグインいれてCodexはSpecとPlanの記述だけさせる 実際のコーディング出力はローカルLLMにやらせる とトークン出力を節約できます Planの中に仕様を満たすコードがほとんど出力されてるからCodex単体でやると損
日本語
1
0
16
1.4K
ENO@個人アプリ開発•筋トレ
codex使ってみましたがこれとんでもなく金食い虫じゃないですか? 20ドルが一瞬で消し飛んだ。。。 指示の仕方が悪いんでしょうか?
日本語
14
3
133
25.1K
CopenDeCamp
CopenDeCamp@lvlinf·
@gosrum RTX6000x2でNVFP4量子化かつTensorParallelとかじゃないとだめですね... 一般人には無理かな...
日本語
0
0
1
14
金のニワトリ
Mistral-Medium-3.5-128Bの推論速度をllama-benchで測定@ Mac Studio(M2 Ultra) ・prefill:〜57.5tps ・decode速度は〜6.5 tps この時点でts-benchの評価をするには遅すぎるので断念 コンテキストサイズも128kはいけたが、200kだとOOMでハングしてしまった やはり128B-denseモデルはローカルで動かすものではなさそう
金のニワトリ tweet media
金のニワトリ@gosrum

お!Mistral-Medium-3.5-128BのGGUFのウェイトがずっと消されてたけど、今見たらアップロードされている huggingface.co/unsloth/Mistra…

日本語
1
0
17
2.2K
CopenDeCamp
CopenDeCamp@lvlinf·
@gosrum AMD的にはCUDA資産に対抗するつもりはないように思える ROCmをOSSにしたら有志が勝手にある程度やってくれるだろ?&GPUのIO叩く部分だけは非公開コードあるからLinuxで協力すんぜ ってスタンスな気が
日本語
0
0
4
424
CopenDeCamp
CopenDeCamp@lvlinf·
@gosrum 噂ですね MedusaHalo LPDDR6で検索するとRedditで議論されているかと ただ発売が2027年後半だった気が
日本語
0
0
1
153
金のニワトリ
金のニワトリ@gosrum·
@lvlinf もしそうならちょっと話が変わってきそうですね どこに記載がありましたか?
日本語
1
0
1
502
金のニワトリ
CPU、GPU性能向上はわずかで大きな変更点はメモリを192GBにできるようになったことか EVO-X2買ったは良いのだが、AI性能はNVIDIA GPUやMacに劣るのでローカルAI用途としては使っていない。そういう意味でメモリ増やしても使いみちあるのかな?200BのLLMがローカルで動いた!(2tpsで)とかになりそう
ギャズログ | Gaz:Log@gazlog_blog

Ryzen AI Max+ 495のベンチマークが登場 CPU性能はMax+ 395から10%増もGPU性能は同等 一方でメモリの最大サポート容量は128GBから192GBへ大幅拡大 AI向け用途を想定 gazlog.jp/entry/ryzen-ai…

日本語
9
9
118
59.7K
CopenDeCamp
CopenDeCamp@lvlinf·
@posi_posi8 @gosrum llama.cpp比で1.5倍ぐらいはtps出せるっぽいです (RX 7900 XTXでの計測)
日本語
0
0
5
250
posi_posi
posi_posi@posi_posi8·
@lvlinf @gosrum そうなんですね。 誤算といいつつも、自分が開発しているわけでもないので、ありがたく発展を待っています。
日本語
1
0
3
1.2K
posi_posi
posi_posi@posi_posi8·
EVO-X2は、GPT-OSSが公開された当初は、画期的なデバイスだったと思う。 同等のモデルを動かすためにRTX Pro6000Blackwellや、Mac Studioが必要であり、それがローカルで25万円で購入できる唯一の選択肢だった。 ただ個人的に唯一誤算だったのは、生成AI恩恵も受けたのに、ROCmのCUDA互換性やその開発速度が劇的に上がらなかったこと。
金のニワトリ@gosrum

CPU、GPU性能向上はわずかで大きな変更点はメモリを192GBにできるようになったことか EVO-X2買ったは良いのだが、AI性能はNVIDIA GPUやMacに劣るのでローカルAI用途としては使っていない。そういう意味でメモリ増やしても使いみちあるのかな?200BのLLMがローカルで動いた!(2tpsで)とかになりそう

日本語
1
8
80
23.2K
CopenDeCamp
CopenDeCamp@lvlinf·
@LottoLabs PCビデオゲーマー(16GB)ぐらいで使えるサイズ感じゃないとローカルLLMそのものが普及しないと思うよ
日本語
0
0
1
20
CopenDeCamp
CopenDeCamp@lvlinf·
@LottoLabs 投機しない推論の場合、Qwen3.6 27Bでも、 今現在新品で買えるコンシューマーGPUという選択肢だと、5090ぐらいしか実用的なtps超えられないから厳しくないかな?そりゃDenseが賢いのは分かるけど
日本語
2
0
2
76
Lotto
Lotto@LottoLabs·
We need a really good dense 40b model
English
23
2
127
6.8K
CopenDeCamp
CopenDeCamp@lvlinf·
@shirasu_sann @whitesikarud 実はそんな変わらんです 最新OSSだとハードウェアを使いこなせてないだけってことが結構判明してきてます まあ雑にやっても早いのは3090ですけどね
日本語
0
0
0
119
しらす
しらす@shirasu_sann·
@lvlinf @whitesikarud メモリ帯域幅が640gb/sでrtx3090の2/3程度なので、 メモリ速度に準速になりがちな、LLM推論においては、やはり3090に軍杯が上がりますね….
日本語
1
0
0
121
シカルド✨️3748.8Lの水がある鹿
海外だとLLM界隈で大変人気があるRTX3090 安い、早い、VRAMあり、最終技術のフィードバックもよいと揃ってしまってるやつ、複数乗っければ安価に高速なトークン生成機として使えるやつ
日本語
2
4
29
2.6K
CopenDeCamp
CopenDeCamp@lvlinf·
@leftcurvedev_ CMOEでもCPUがそこそこいいのだったら23tpsは出せるよん RyzenAIMax+でCMOEしたら32スレッドが頑張ってMoEルーティングしてくれてそれぐらいだった
日本語
0
0
1
114
left curve dev
left curve dev@leftcurvedev_·
Two friends asked for help with their setups One with an RTX 3070 Ti (8GB)
One with an RTX 5070 (12GB) A lot of people are stuck in this annoying 8-12GB VRAM range. If you want full GPU offload, the only real option is Qwen3.5 9B… but let’s be honest, I can’t do that to my bros. So we’ll be trying to squeeze Qwen3.6 35B A3B with CPU offload on both cards + playing with the --ncmoe llama.cpp flag. Will also test other forks to push performance as much as possible. Curious to see what we can do with an RTX 3070 Ti I’ll report back the numbers with the server flags 👍
English
48
9
335
26.5K
CopenDeCamp
CopenDeCamp@lvlinf·
@ren_bocchi3 なんかメモリスロットの片側だけに挿してない? ASRockだと思うけど確かデュアルチャンネルだとNone8GNone8Gになってたような...
日本語
1
0
1
206
れな💚IT系志望女子🍓
で、起動しなくなったんですけど…。 電源が腐っているのかしら…。
れな💚IT系志望女子🍓 tweet media
日本語
8
1
39
2.8K
CopenDeCamp
CopenDeCamp@lvlinf·
@nepenta_magic @mmkikeru @hikaruganji まあ関西は神戸・大阪・京都・大阪公立と賢い公立の総合大学結構選択肢あるから早慶レベルの私学なくても困らないかも
日本語
0
0
0
25
ねぺん太★Gone with the Waves
@mmkikeru @lvlinf @hikaruganji 西日本には関関同立を上回る私立の総合大学が無いので「その地域での上位◯校」という視点なら「関西の早慶上智」とも言える レベルではMARCHあたりでしょうが
日本語
1
0
0
103
光源氏🇯🇵
光源氏🇯🇵@hikaruganji·
採用する企業側も、大学生の時は金髪で陽キャの子が将来的にもたらすリスクを考えてから採用しないと、こうなると言う典型的な例ですね。。。西日本シティ銀行。
光源氏🇯🇵 tweet media光源氏🇯🇵 tweet media
日本語
582
1.1K
14K
4.2M
不対電子
不対電子@electlone·
今の平均的な陰キャ大学生のSNS事情 ・Discord→必須 ・Twitter→6割くらいやってる。無くても耐え ・LINE→必須だがディスコで事足りる。親しい人以外はあまり交換しない ・Instagram→垢持ってるだけで投稿してない。推しを見るために使ってる人多数 ・BeReal→やってる奴ガチで存在するの??
ぶる🐰@61ve_kkmn

今の平均的な大学生のSNS事情 ・Instagram→必須 ・BeReal→6割くらいやってる。無くても耐え ・LINE→必須だがインスタで事足りる。親しい人以外はあまり交換しない ・Twitter→# 春から○○大とかでしか使わない。推しを見るために使ってる人多数 ・TikTok→殆ど入れてる。よく見てる

日本語
31
499
4.8K
418K
いさ
いさ@xy_ip99·
ふと思ったこと、 なんでインストール必要なのにPython自動化が流行ってるんだろ なんでインストール不要なのにPowerShellが流行ってないんだろ
日本語
103
219
2.3K
759.2K
CopenDeCamp
CopenDeCamp@lvlinf·
@Nagaoss これ会社のGPUサーバー用途に使えますかね? Radeon AI PRO R9700を4台挿したいんですが
日本語
1
0
0
121
(有)長尾製作所💪💪
☆新商品発表☆ PC検証用ボード MANAITA【直販限定】 amzn.asia/d/0gktm12p 様々なPCパーツを交換しながら試すことができるシンプルな まな板型の検証台です。 【平置き/縦置き】の設置が選べます!
(有)長尾製作所💪💪 tweet media(有)長尾製作所💪💪 tweet media(有)長尾製作所💪💪 tweet media(有)長尾製作所💪💪 tweet media
日本語
5
43
116
19.1K
CopenDeCamp
CopenDeCamp@lvlinf·
@pupposandro ついにプレフィルまで投機的になったか でもこれ両方必要な技術だよね ローカルLLMは、せめてミドルハイ9070や5070でまともに動かないと...
日本語
0
0
1
224
CopenDeCamp
CopenDeCamp@lvlinf·
@chizu_potato Zedかなー... まあZedも普通に負担はあるんだけど、 Rustで記述されててCLIが効率いいから気にならない
日本語
0
2
6
8K
chizuchizu
chizuchizu@chizu_potato·
正直、VSCodeのSSH接続、サーバー側にありえないレベルの負担かかって使い物にならないからただのsyncするエディタないかな
日本語
20
90
1.2K
272K