Wi
920.4K posts

Wi
@Wi_ALPC
アイマスをはじめとしたオタク系全般と、IT・ガジェット類について呟いてる人です。アイコンは林つぐみ様(@tugumix)から頂きました!
東京 Beigetreten Mayıs 2014
5.9K Folgt1.8K Follower
Wi retweetet
Wi retweetet
Wi retweetet
Wi retweetet
Wi retweetet
Wi retweetet

しかし便所で考えたけれど、トイレで用を足してレバー押すだけで、汚いものに指ひとつ触れず、拭いた紙ごと遠くの浄化設備まで糞尿が流れていく仕組みとか、冷蔵庫開けたら地球の裏側から運ばれてきた果物とか、2〜3日前に農場で酪農家が搾った牛の乳とか、半年前に地球の裏側で買ってきたバター(これは冷凍でも早く消費した方がいい)が冷えて入っているとかよく考えると贅沢すぎる気がする。
さっきまで外国の人への連絡を書いていたけれど、ボタンひとつで外国語に翻訳されて地球の裏側に届くし、そもそも、その連絡文を書いてるのが自分ですらなくて、これまでのやり取りを全部参照している人工知能だとか、オッサンは冷静に考えると頭がおかしくなりそうだよ
日本語
Wi retweetet
Wi retweetet

ローカルLLMを触っていると、
・クラウドモデルの性能の高さとそこから推察されるパラメーター数の膨大さ
・その超巨大モデルを高速で動かすサーバーの能力
を想像してひれ伏す。
月1万円くらいなら安く感じられるライフハック。
ミロ@ml0_1337
Claudeのモデルは恐らくOpenAIに比べるとモデルサイズがかなり大きい。 ということは、Claudeのモデルを動かすだけでも1000万円くらいのGPUを用意する必要がある。 それを月3000円程度で使えてたのがおかしいだけで、ProプランでClaude Codeが使えないという本来あるべきプライシングに戻っただけ。 例えるなら、「月3000円払えばAnthropic社のフェラーリを5時間で50kmまでは走っていいですよ。Maxプランならこの20倍まで走行できます。」みたいな状態だった。 OpenAIだとレクサスが乗れるので、月3000円でも5時間で100kmくらい走ることが許されている。 一般的なユーザーはモデルのだいたいのサイズを知らないし、その推論に必要なGPUの相場感も知らないので、「毎月数千円で超知能をたくさん使えてラッキー」みたいな感じだった。 これからはハネムーンフェーズが終わって、適正な価格でアメリカのモデルを使うか、格安で蒸留された中華モデルを使っていくかになる。
日本語
Wi retweetet
Wi retweetet
Wi retweetet
Wi retweetet
Wi retweetet
Wi retweetet
Wi retweetet
Wi retweetet
Wi retweetet

これ似た手法で、大学4年間学科1位を取り続けて学費免除なので数百万円稼いだと思っていたら、気が付いたら父親の保有する希少な大型オートバイに化けてたの思い出した。
めかぶ@mylife_is_DQ
学生時代、一日16時間勉強していたが、まさにこれ。 テストの順位に応じて、お小遣いがもらえるシステムを親に導入してもらっていた。 ・学年1位:3万円 ・学年2~5位:1万円 ・学年3~10位:5,000円 金欲しさに無我夢中で勉強していた。 モノゴトに必死に取り組むためには「外発的動機づけ」が重要。 余談だが、そのうち勉強が楽しくなって報酬なしでも勉強するようになっていた。
日本語
Wi retweetet
Wi retweetet
Wi retweetet
























