
/ 推薦システム分野の国際会議 「RecSys 2025」で論文採択🎉 \ 当社の推薦システム開発チームに 所属する林が主著を務めた論文が Full Paper採択✨️ メインカンファレンスでの 口頭発表も予定しています🗣️ 🔽詳細はこちら! wantedly.com/companies/want…
自由人
2.4K posts

@python_walker
Ph.D of Engineering / Recommender System / Wantedly Inc. / Kaggle solo🥈×1 / #RecIndTalks 運営

/ 推薦システム分野の国際会議 「RecSys 2025」で論文採択🎉 \ 当社の推薦システム開発チームに 所属する林が主著を務めた論文が Full Paper採択✨️ メインカンファレンスでの 口頭発表も予定しています🗣️ 🔽詳細はこちら! wantedly.com/companies/want…





📌#WantedlyDesign Portfolio 私たちのアウトプットをご紹介 ✔️Wantedly TECHBOOK ウォンテッドリーでは、エンジニアチームが定期的に技術本「Wantedly TECH BOOK」を発行しており、デザインチームが制作しています。 そして今回の、プラチナスポンサーとして協賛ししている「NLP2026」ではブース出展を行っており、アンケートに答えていただいた方に「Wantedly TECHBOOK EXTRA Machine Learning 2026 Edition」をプレゼントしています。書籍の中では、“ウォンテッドリーのマッチングを司る推薦システム”をご紹介しています。 第1章|ウォンテッドリーのデータサイエンティストが今後取り組む主要課題 第2章|Amazon Bedrockを用いた新着募集のモデレーション半自動化への取り組み 第3章|推薦施策のリリースフローの効率化 第4章|相互推薦システムを活用したユーザーと企業の双方の嗜好を考慮した推薦 第5章|マッチング推薦におけるオフ方策評価・学習 第6章|推薦システムにおけるPost Processの取り組み 第7章|Feature Storeを活用して最新のデータを学習時に取り込むことによる推薦システムの改善 instagram.com/p/DVux7FADxfF/








New research from Databricks AI Research: FlashOptim cuts training memory by over 50% with no measurable loss in model quality. Training a model with AdamW typically requires 16 bytes per parameter just for weights, gradients, and optimizer state. FlashOptim brings that down to 7 bytes, or 5 with gradient release. For Llama-3.1-8B finetuning, peak GPU memory drops from 175 GiB to 113 GiB. Two techniques drive this: improved master weight splitting using tighter ULP-normalized error correction, and companded optimizer state quantization that reduces quantization error and improves convergence. FlashOptim works as a drop-in replacement for SGD, AdamW, and Lion, supports distributed training with DDP and FSDP2, and is open source. Paper: arxiv.org/html/2602.2334… Source code: github.com/databricks/fla…




