Daigo Fujiwara

18K posts

Daigo Fujiwara banner
Daigo Fujiwara

Daigo Fujiwara

@AcdFendder

研究開発系・社会人博士課程/ データ分析ノウハウ集「ごちきか」https://t.co/BxSv9xXGil 運営中/ Node-AI https://t.co/Cp2XmAKUnT の中のアルゴリズムとか/ 興味 : 時系列解析、因果探索・推論、システム制御、非線形・統計物理、人文は浅いが科学哲学・思想史・美術史・心理学

関東 参加日 Eylül 2013
2.5K フォロー中1.7K フォロワー
固定されたツイート
Daigo Fujiwara
Daigo Fujiwara@AcdFendder·
弊チームで書いてる社内向けデータ分析ノウハウ集を全世界公開しました〜 世の中のデータ分析系記事の中でも、特に時系列に関してはそこそこまとまってる方だと思ってます〜 継続的に更新予定なのでぜひ今後ともご利用よろしくお願いします! engineers.ntt.com/entry/2022/12/…
日本語
4
31
229
137.1K
Daigo Fujiwara がリツイート
比戸将平 Shohei Hido
公共の利益のため、誤報の訂正を拡散します。LLM-jp-4はフルスクラッチ開発されたものであり、他LLMベースではないです。 "【修正履歴:2026年4月4日午前11時30分 各モデルについて「Llama 2/Qwen3をベースに」と記載していましたが、学習対象である重みについてフルスクラッチ開発である旨を明記しました】"
ITmedia AI+@itm_aiplus

新たな「国産LLM」公開、国立情報学研究所 「gpt-oss-20b」超えの日本語性能うたう itmedia.co.jp/aiplus/article…

日本語
1
33
119
12.7K
Daigo Fujiwara がリツイート
signüll
signüll@signulll·
the reason why emotional intelligence is extremely rare is simply cuz it is expensive. actually modeling another person’s internal state in real time is computationally brutal.. it requires suppressing your own frame, running a parallel simulation, & updating continuously. the “inference costs” of eq in humans are likely much higher than the most expensive ai model in existence today.
English
70
60
690
22.5K
Daigo Fujiwara がリツイート
野瀬大樹
野瀬大樹@hirokinose·
普段事故で若者が被害者になったら、両親が「そっとしておいてくれ」「取材はやめてくれ」と言っても無視してガンガン取材するオールドメディア、今回両親側が「もっと知ってほしい」と発信始めてもガン無視なのは何というか、さすが「ジャーナリス魂()」だなと。
白饅頭(御田寺圭/光属性Vtuber/バーチャルツイッタラー)@terrakei07

オールドメディアが「沈静化(報道しない権利)」を図ったらnoteで反撃するという新しい筋道が生まれたな。

日本語
3
660
1.8K
26.3K
Daigo Fujiwara がリツイート
Daigo Fujiwara
Daigo Fujiwara@AcdFendder·
言論を批判されると事後的に解釈を捻じ曲げてそんなつもりじゃなかったんですみたいなこと言う人マジで多いし、取り手が悪いみたいな言い方するやつは尚のこと本当に分からん。百歩譲って真意がそっちだとして明らかに誤解させるような文書く方が悪いやろとしか思えぬ。
日本語
1
1
6
605
Daigo Fujiwara
Daigo Fujiwara@AcdFendder·
これまじで実感としてあり、修士時代の研究テーマがまさにガウス過程使ってたんやけど、そこら辺の教育的効果考えて指導教員が選んでくれてた気がする。ありがた!
kota matsui@matsui_kota

ガウス過程を学ぶと、線形代数やベイズ推論の計算ができるようになり、カーネル法のコンセプトが分かり、計算量に意識を向けられるようになり、応用先として適応的実験計画を考えられるようになる。 ガウス過程はいいぞ!みんなガウス過程を学ぼう!

日本語
1
0
6
318
Daigo Fujiwara
Daigo Fujiwara@AcdFendder·
なんか細目で絵とかを見て「あ〜、確かにhoge hogeに見えてきたわ〜」みたいな感じかもしれない
日本語
0
0
1
40
Daigo Fujiwara
Daigo Fujiwara@AcdFendder·
ガチでこれなんだよなぁ、なんか全てを失ったら「京大卒AI博士エンジニアが教えるAI活用塾!こんにちは、僕はAIで多数の論文と特許を取得しており〜」の情報商材に手を出そうと思うわ それまではできるだけ王道で
深津 貴之 / THE GUILD, note@fladdict

学生さんにいうのだけど、「数万フォロワーぐらい」や「数十万円複収入」を狙って、煽りや炎上や暴露やAIでのコピー活動を頑張っても、引き換えにメジャーや正規ルートから声かからなくなるので、王道をやるほうがよいです。

日本語
0
0
5
232
Daigo Fujiwara がリツイート
kota matsui
kota matsui@matsui_kota·
ガウス過程を学ぶと、線形代数やベイズ推論の計算ができるようになり、カーネル法のコンセプトが分かり、計算量に意識を向けられるようになり、応用先として適応的実験計画を考えられるようになる。 ガウス過程はいいぞ!みんなガウス過程を学ぼう!
日本語
0
20
138
6.2K
Daigo Fujiwara
Daigo Fujiwara@AcdFendder·
留年した人はこれらしいんやが、私のトラウマは主にサッカー部と軽音サークルなので、オウンゴールして顧問にバカ怒られてる夢と曲覚られずにギタボとしてライブして白けた目で見られる夢を未だにめっちゃ見る
255@nikokosan

本日、およそ1年ぶりの「これ」

日本語
0
0
2
246
Daigo Fujiwara がリツイート
バルドネさん
バルドネさん@jfk_tigers·
朝日や毎日がほぼスルーなのは想像できたけど、読売までもがほぼスルーだったのは正直驚いた。 産経は予想外に頑張っているな。
産経ニュース@Sankei_news

<産経抄>転覆事故、生徒の命奪った平和学習 sankei.com/article/202604… 近年、これほどはらわたが煮えくり返る話は珍しい。同志社国際高校が研修旅行のコースに、米軍普天間飛行場の名護市辺野古の移設工事現場の抗議船乗船を「平和学習」として組み込み、転覆事故で生徒を死なせた件である。

日本語
10
491
4.1K
61.9K
Daigo Fujiwara
Daigo Fujiwara@AcdFendder·
真面目に金策を考えないとなぁと最近思っている
日本語
0
0
2
113
Daigo Fujiwara
Daigo Fujiwara@AcdFendder·
うーん、不思議 VAEとかGANとかTransformerとかなんでもやが、それなりに哲学的にというか人間の認知からのアナロジーで上手く行きそうなのが納得できるんやがDiffusionだけはほんまに納得いってない。数式では分かるが
atulit@atulit_gaur

i love diffusion models and idk how but i went down a rabbit hole to trace their origins and honestly this stuff is kinda beautiful when you see how it evolved like it didn’t just appear out of nowhere… it’s literally years of ideas stacking on top of each other it starts with "deep unsupervised learning using nonequilibrium thermodynamics" (sohl-dickstein et al., 2015) -> slowly destroy data with noise -> learn to reverse it sounds simple but that’s the seed then comes "generative modeling by estimating gradients of the data distribution" (song and ermon, 2019) -> learn gradients of data distribution -> understand where real images live this is where score-based models come in then things get real with "denoising diffusion probabilistic models" (ho et al., 2020) -> clean probabilistic formulation -> stable training -> actually works this paper made diffusion practical then "diffusion models beat gans on image synthesis" (dhariwal and nichol, 2021) -> diffusion > gans this was a big shift but still slow as hell then the most important jump imo "high-resolution image synthesis with latent diffusion models" (rombach et al., 2021) -> compress images with vae -> run diffusion in latent space -> huge speedup this is literally the backbone of stable diffusion parallel to all this you have "learning transferable visual models from natural language supervision" (radford et al., 2021) -> align text and images -> enable text-guided generation that’s clip and finally stable diffusion (rombach et al., 2022 release implementation) -> vae + unet + clip -> trained on large-scale data like laion what’s crazy is the core idea never changed add noise -> remove noise -> repeat but layered with better math, better architectures, and better data also something about this feels kinda philosophical instead of solving a hard problem directly they broke it into tiny easy steps don’t generate an image just make it slightly less noisy each time again -> again -> again and somehow that builds something meaningful

日本語
0
0
7
824
Daigo Fujiwara がリツイート
atulit
atulit@atulit_gaur·
i love diffusion models and idk how but i went down a rabbit hole to trace their origins and honestly this stuff is kinda beautiful when you see how it evolved like it didn’t just appear out of nowhere… it’s literally years of ideas stacking on top of each other it starts with "deep unsupervised learning using nonequilibrium thermodynamics" (sohl-dickstein et al., 2015) -> slowly destroy data with noise -> learn to reverse it sounds simple but that’s the seed then comes "generative modeling by estimating gradients of the data distribution" (song and ermon, 2019) -> learn gradients of data distribution -> understand where real images live this is where score-based models come in then things get real with "denoising diffusion probabilistic models" (ho et al., 2020) -> clean probabilistic formulation -> stable training -> actually works this paper made diffusion practical then "diffusion models beat gans on image synthesis" (dhariwal and nichol, 2021) -> diffusion > gans this was a big shift but still slow as hell then the most important jump imo "high-resolution image synthesis with latent diffusion models" (rombach et al., 2021) -> compress images with vae -> run diffusion in latent space -> huge speedup this is literally the backbone of stable diffusion parallel to all this you have "learning transferable visual models from natural language supervision" (radford et al., 2021) -> align text and images -> enable text-guided generation that’s clip and finally stable diffusion (rombach et al., 2022 release implementation) -> vae + unet + clip -> trained on large-scale data like laion what’s crazy is the core idea never changed add noise -> remove noise -> repeat but layered with better math, better architectures, and better data also something about this feels kinda philosophical instead of solving a hard problem directly they broke it into tiny easy steps don’t generate an image just make it slightly less noisy each time again -> again -> again and somehow that builds something meaningful
atulit tweet media
English
5
22
250
11.6K
Daigo Fujiwara がリツイート
日本経済新聞 電子版(日経電子版)
日本発「伊藤の公式」が支えるウォール街 莫大な富もたらす数学研究 nikkei.com/article/DGXZQO… 「ピタゴラスの定理に次いで応用された」(米科学アカデミー)──。 故・伊藤清氏が編み出した数式は、デリバティブの価格予測から生物の絶滅確率まで幅広い分野で不可欠に。人類に富を生み出したのは「純粋な数学研究」でした。
GIF
日本語
25
401
2K
331.9K