Daigo Fujiwara

18K posts

Daigo Fujiwara banner
Daigo Fujiwara

Daigo Fujiwara

@AcdFendder

研究開発系・社会人博士課程/ データ分析ノウハウ集「ごちきか」https://t.co/BxSv9xXGil 運営中/ Node-AI https://t.co/Cp2XmAKUnT の中のアルゴリズムとか/ 興味 : 時系列解析、因果探索・推論、システム制御、非線形・統計物理、人文は浅いが科学哲学・思想史・美術史・心理学

関東 Entrou em Eylül 2013
2.5K Seguindo1.7K Seguidores
Tweet fixado
Daigo Fujiwara
Daigo Fujiwara@AcdFendder·
弊チームで書いてる社内向けデータ分析ノウハウ集を全世界公開しました〜 世の中のデータ分析系記事の中でも、特に時系列に関してはそこそこまとまってる方だと思ってます〜 継続的に更新予定なのでぜひ今後ともご利用よろしくお願いします! engineers.ntt.com/entry/2022/12/…
日本語
4
31
229
137.1K
Daigo Fujiwara retweetou
野瀬大樹
野瀬大樹@hirokinose·
普段事故で若者が被害者になったら、両親が「そっとしておいてくれ」「取材はやめてくれ」と言っても無視してガンガン取材するオールドメディア、今回両親側が「もっと知ってほしい」と発信始めてもガン無視なのは何というか、さすが「ジャーナリス魂()」だなと。
白饅頭(御田寺圭/光属性Vtuber/バーチャルツイッタラー)@terrakei07

オールドメディアが「沈静化(報道しない権利)」を図ったらnoteで反撃するという新しい筋道が生まれたな。

日本語
1
509
1.3K
18.6K
Daigo Fujiwara retweetou
Daigo Fujiwara
Daigo Fujiwara@AcdFendder·
言論を批判されると事後的に解釈を捻じ曲げてそんなつもりじゃなかったんですみたいなこと言う人マジで多いし、取り手が悪いみたいな言い方するやつは尚のこと本当に分からん。百歩譲って真意がそっちだとして明らかに誤解させるような文書く方が悪いやろとしか思えぬ。
日本語
1
1
6
592
Daigo Fujiwara
Daigo Fujiwara@AcdFendder·
これまじで実感としてあり、修士時代の研究テーマがまさにガウス過程使ってたんやけど、そこら辺の教育的効果考えて指導教員が選んでくれてた気がする。ありがた!
kota matsui@matsui_kota

ガウス過程を学ぶと、線形代数やベイズ推論の計算ができるようになり、カーネル法のコンセプトが分かり、計算量に意識を向けられるようになり、応用先として適応的実験計画を考えられるようになる。 ガウス過程はいいぞ!みんなガウス過程を学ぼう!

日本語
1
0
5
219
Daigo Fujiwara
Daigo Fujiwara@AcdFendder·
なんか細目で絵とかを見て「あ〜、確かにhoge hogeに見えてきたわ〜」みたいな感じかもしれない
日本語
0
0
1
37
Daigo Fujiwara
Daigo Fujiwara@AcdFendder·
ガチでこれなんだよなぁ、なんか全てを失ったら「京大卒AI博士エンジニアが教えるAI活用塾!こんにちは、僕はAIで多数の論文と特許を取得しており〜」の情報商材に手を出そうと思うわ それまではできるだけ王道で
深津 貴之 / THE GUILD, note@fladdict

学生さんにいうのだけど、「数万フォロワーぐらい」や「数十万円複収入」を狙って、煽りや炎上や暴露やAIでのコピー活動を頑張っても、引き換えにメジャーや正規ルートから声かからなくなるので、王道をやるほうがよいです。

日本語
0
0
5
189
Daigo Fujiwara retweetou
kota matsui
kota matsui@matsui_kota·
ガウス過程を学ぶと、線形代数やベイズ推論の計算ができるようになり、カーネル法のコンセプトが分かり、計算量に意識を向けられるようになり、応用先として適応的実験計画を考えられるようになる。 ガウス過程はいいぞ!みんなガウス過程を学ぼう!
日本語
0
19
121
5.3K
Daigo Fujiwara
Daigo Fujiwara@AcdFendder·
留年した人はこれらしいんやが、私のトラウマは主にサッカー部と軽音サークルなので、オウンゴールして顧問にバカ怒られてる夢と曲覚られずにギタボとしてライブして白けた目で見られる夢を未だにめっちゃ見る
255@nikokosan

本日、およそ1年ぶりの「これ」

日本語
0
0
2
242
Daigo Fujiwara retweetou
バルドネさん
バルドネさん@jfk_tigers·
朝日や毎日がほぼスルーなのは想像できたけど、読売までもがほぼスルーだったのは正直驚いた。 産経は予想外に頑張っているな。
産経ニュース@Sankei_news

<産経抄>転覆事故、生徒の命奪った平和学習 sankei.com/article/202604… 近年、これほどはらわたが煮えくり返る話は珍しい。同志社国際高校が研修旅行のコースに、米軍普天間飛行場の名護市辺野古の移設工事現場の抗議船乗船を「平和学習」として組み込み、転覆事故で生徒を死なせた件である。

日本語
10
484
4.1K
61.4K
Daigo Fujiwara
Daigo Fujiwara@AcdFendder·
真面目に金策を考えないとなぁと最近思っている
日本語
0
0
2
113
Daigo Fujiwara
Daigo Fujiwara@AcdFendder·
うーん、不思議 VAEとかGANとかTransformerとかなんでもやが、それなりに哲学的にというか人間の認知からのアナロジーで上手く行きそうなのが納得できるんやがDiffusionだけはほんまに納得いってない。数式では分かるが
atulit@atulit_gaur

i love diffusion models and idk how but i went down a rabbit hole to trace their origins and honestly this stuff is kinda beautiful when you see how it evolved like it didn’t just appear out of nowhere… it’s literally years of ideas stacking on top of each other it starts with "deep unsupervised learning using nonequilibrium thermodynamics" (sohl-dickstein et al., 2015) -> slowly destroy data with noise -> learn to reverse it sounds simple but that’s the seed then comes "generative modeling by estimating gradients of the data distribution" (song and ermon, 2019) -> learn gradients of data distribution -> understand where real images live this is where score-based models come in then things get real with "denoising diffusion probabilistic models" (ho et al., 2020) -> clean probabilistic formulation -> stable training -> actually works this paper made diffusion practical then "diffusion models beat gans on image synthesis" (dhariwal and nichol, 2021) -> diffusion > gans this was a big shift but still slow as hell then the most important jump imo "high-resolution image synthesis with latent diffusion models" (rombach et al., 2021) -> compress images with vae -> run diffusion in latent space -> huge speedup this is literally the backbone of stable diffusion parallel to all this you have "learning transferable visual models from natural language supervision" (radford et al., 2021) -> align text and images -> enable text-guided generation that’s clip and finally stable diffusion (rombach et al., 2022 release implementation) -> vae + unet + clip -> trained on large-scale data like laion what’s crazy is the core idea never changed add noise -> remove noise -> repeat but layered with better math, better architectures, and better data also something about this feels kinda philosophical instead of solving a hard problem directly they broke it into tiny easy steps don’t generate an image just make it slightly less noisy each time again -> again -> again and somehow that builds something meaningful

日本語
0
0
6
781
Daigo Fujiwara retweetou
atulit
atulit@atulit_gaur·
i love diffusion models and idk how but i went down a rabbit hole to trace their origins and honestly this stuff is kinda beautiful when you see how it evolved like it didn’t just appear out of nowhere… it’s literally years of ideas stacking on top of each other it starts with "deep unsupervised learning using nonequilibrium thermodynamics" (sohl-dickstein et al., 2015) -> slowly destroy data with noise -> learn to reverse it sounds simple but that’s the seed then comes "generative modeling by estimating gradients of the data distribution" (song and ermon, 2019) -> learn gradients of data distribution -> understand where real images live this is where score-based models come in then things get real with "denoising diffusion probabilistic models" (ho et al., 2020) -> clean probabilistic formulation -> stable training -> actually works this paper made diffusion practical then "diffusion models beat gans on image synthesis" (dhariwal and nichol, 2021) -> diffusion > gans this was a big shift but still slow as hell then the most important jump imo "high-resolution image synthesis with latent diffusion models" (rombach et al., 2021) -> compress images with vae -> run diffusion in latent space -> huge speedup this is literally the backbone of stable diffusion parallel to all this you have "learning transferable visual models from natural language supervision" (radford et al., 2021) -> align text and images -> enable text-guided generation that’s clip and finally stable diffusion (rombach et al., 2022 release implementation) -> vae + unet + clip -> trained on large-scale data like laion what’s crazy is the core idea never changed add noise -> remove noise -> repeat but layered with better math, better architectures, and better data also something about this feels kinda philosophical instead of solving a hard problem directly they broke it into tiny easy steps don’t generate an image just make it slightly less noisy each time again -> again -> again and somehow that builds something meaningful
atulit tweet media
English
5
22
250
11.6K
Daigo Fujiwara retweetou
日本経済新聞 電子版(日経電子版)
日本発「伊藤の公式」が支えるウォール街 莫大な富もたらす数学研究 nikkei.com/article/DGXZQO… 「ピタゴラスの定理に次いで応用された」(米科学アカデミー)──。 故・伊藤清氏が編み出した数式は、デリバティブの価格予測から生物の絶滅確率まで幅広い分野で不可欠に。人類に富を生み出したのは「純粋な数学研究」でした。
GIF
日本語
25
398
2K
323.1K
Daigo Fujiwara retweetou
くいなちゃん
くいなちゃん@kuina_ch·
日本には『四捨五入』という四字熟語があるせいで、「XX.5 以上を切り上げて、XX.5 未満を切り捨てる」という処理を日本のプログラマさんは書きがちです。 しかしそうすると、切り上げになる頻度が増えてよくないため、世界的には「XX.5 は近い偶数整数に丸める」ことが一般的らしいですね。
日本語
107
341
2.7K
754.5K
Daigo Fujiwara retweetou
医療統計start-upサロン
今までたくさん図表の論文を 読みましたけどこれが圧倒的なNo. 1です。 図表を作る人は全員読んで欲しいです。 絶対損しないので、騙されたと思って 読んでみてください。 あえて、詳細は省きますが めちゃくちゃ参考になります。 jstage.jst.go.jp/article/ningen…
日本語
0
596
5.7K
304.6K