Heni Ben Amor

233 posts

Heni Ben Amor

Heni Ben Amor

@asurobot

Visiting Faculty @ Google DeepMind | Associate Professor for Robotics and Machine Learning at Arizona State University. Director of Interactive Robotics Lab.

เข้าร่วม Kasım 2016
516 กำลังติดตาม1.4K ผู้ติดตาม
ทวีตที่ปักหมุด
Heni Ben Amor
Heni Ben Amor@asurobot·
I am a Googler! 😀 Happy to say that I joined @GoogleDeepMind as a Visiting Faculty Researcher for my sabbatical. I am extremely delighted to work with some of the smartest and kindest people on the planet. If you are also in the Bay Area and want to grab coffee, let me know :)
Heni Ben Amor tweet media
English
17
6
327
32.7K
Takayuki Osa
Takayuki Osa@TakayukiOsa·
@asurobot Thanks a lot! I’m actually a bit surprised you read my post in Japanese!
English
1
0
1
19
Takayuki Osa
Takayuki Osa@TakayukiOsa·
多くの方に読んでいただいているようで、大変ありがたいです!強化学習に興味のある方のお役に少しでも立てれば幸いです。 #強化学習 #ロボット学習 #機械学習
コロナ社編集部@Coronasha_edit

昨年発行の『強化学習アルゴリズム』ですが,お蔭をもちまして,発売後3か月と少しで,早くも累計出荷数1,000部を突破しました🎊🎊皆様には心より御礼申し上げますとともに,引き続き本書をよろしくお願いします🙇‍♂️ x.gd/dIgzm #アルゴリズム #強化学習 #深層学習 #機械学習

日本語
1
2
7
956
Heni Ben Amor
Heni Ben Amor@asurobot·
@JM_NewBreed All of these games shaped our childhood! Thank you for inspiring us and for giving us a great childhood, Mikami-san.
English
1
0
1
130
JM / 元SNK|NEOGEO開発|現役ドッター
#SNK #NEOGEO As February comes to an end, I’d like to reintroduce myself. I’m JM (real name: MASASHI MIKAMI), and I was with SNK from April 1, 1991 to January 1995. When I first joined, I worked at SNK’s Tokyo development studio, which was located in Akihabara at the time. Later, in the fall of 1991, SNK Tokyo Development was closed and the team relocated to the Osaka headquarters. During my time there, I was mainly involved in the development of titles such as Mutation Nation, Samurai Shodown, Super Sidekicks, Savage Reign, and the Sega Genesis version of Art of Fighting. I was responsible for character and background pixel art on these projects. I hope to continue sharing memories and behind-the-scenes stories from those days. Thank you for your support. “JM” comes from “J. MIKAMI,” the name used in the staff credits of my early works.
English
18
95
596
18.9K
Jason Corso
Jason Corso@_JasonCorso_·
🥽🚫 Is the dream of Head-Mounted Displays (HMDs) actually a dead end for enterprise? 🥽🚫 We’ve seen the hype. Oculus, Vision Pro, HoloLens—all promising to revolutionize work. Yet, outside of gaming, they often just gather dust. Why? Perhaps, the UX is clunky, the form factor is heavy, and they create a physical barrier between people. Perhaps a to-be-released version will improve these, but when? In the VIGIL project in collaboration with Advanced Research Projects Agency for Health (ARPA-H)'s PARADIGM program, we decided to stop waiting for a "better" headset. Our mission is critical: delivering advanced healthcare to hospital deserts in rural America. We need to upskill practitioners on-the-fly without making them look like cyborgs. The Solution? We’ve ditched the goggles. 💡 By using physically-grounded projectors, we're bringing the interface to the room, not the face: ⚡ Natural UX: No heavy gear or "VR sickness." ⚡ Patient Trust: Practitioners maintain eye contact with patients, not a screen. ⚡ Seamless Integration: The interface blends into the physical environment. It was a massive risk to throw our HoloLens 2 plans out the window last year, but seeing the results, it's a risk that has truly paid off. Kudos to my collaborator Anhong Guo for spearheading this shift. The future of mixed reality isn't something you wear...it’s something you inhabit.
English
1
0
2
320
Heni Ben Amor
Heni Ben Amor@asurobot·
5 yrs ago at NeurIPS we introduced "Language-conditioned imitation for robot manipulation" and one of the first VLAs. Back then there was some pushback. Today, VLAs are the hottest topic with multi-billion $ startups. Yet, there's still some basic research needed in my opinion!
Heni Ben Amor@asurobot

Want to teach your robot new tricks with NLP and Deep Learning? We are posting the full source-code to our NeurIPS 2020 paper along with an easy, hands-on tutorial on Medium - lots of explanations and videos! Github Code: github.com/ir-lab/Languag… Medium: sstepput.medium.com/teach-your-rob…

English
0
0
10
399
Heni Ben Amor
Heni Ben Amor@asurobot·
@neuromusiker Excellent, it would be good to collaborate. I would love to send some of my students and work together.
English
1
0
1
304
Shinichi Furuya / 古屋晋一
Shinichi Furuya / 古屋晋一@neuromusiker·
ソニーCSLが日本学術振興会(JSPS)の特別研究員-PD等の雇用制度導入機関に認定されました.学振PDのご応募にご興味がある方は是非ご検討ください.r34.smp.ne.jp/u/No/7586747/h…
日本語
1
36
169
22K
細田耕
細田耕@KohHosoda·
今年のまとめかぁ 還暦 JSR CREST 獲得 ムーンショット アドバイザ任命 くらい。もっと頑張らなきゃ
日本語
1
0
21
1.6K
Heni Ben Amor
Heni Ben Amor@asurobot·
@joelniklaus Hahahah. Hey... you are not allowed to be skeptical of my work 😝
English
0
0
1
10
Joël Niklaus
Joël Niklaus@joelniklaus·
@asurobot Yes, I remember when you told me about it two years ago. I think I was also quite skeptical back then.😅 Amazing to see this working now!
English
1
0
1
26
Joël Niklaus
Joël Niklaus@joelniklaus·
This shouldn't work... but it does! Researchers are now directly optimizing policies using LLMs, and here's the fascinating part: every policy update is fully interpretable because the LLM explains its reasoning before outputting new parameters. You can even jumpstart learning by feeding it domain knowledge (like a table tennis strategy guide), so it doesn't start from scratch. Super cool work presented last week at #NeurIPS2025 by Yifan Zhou, Sachin Grover, Mohamed El Mistiri, @KamaleshKali777, Pratyush Kerhalkar, @Swarooprm7, Neelesh Kumar, Sanket Gaurav, @aranoya and @asurobot This made me think: we need a conference dedicated to "improbable solutions that actually work." I'm proposing ICDE: the International Conference on Defying Expectations. 😉 What counterintuitive approaches have you seen succeed in your work?
English
2
5
11
1.6K
Simon 🎮
Simon 🎮@WhereItBreakss·
@asurobot Finally, a tutorial that makes me question every life choice I’ve made. 😂
English
1
0
3
334
Heni Ben Amor
Heni Ben Amor@asurobot·
[Free Tutorials] Introduction to In-Context Learning for Agentic AI 🤖 Website: intro-to-icl.github.io We provide a beginner-friendly tutorial on In-Context Learning with Colab code. Demos incl. optimization, regression, classification, RL, translation and many others! #LLM
GIF
English
8
113
572
49.7K
細田耕
細田耕@KohHosoda·
これめちゃやばい
MK@LLM研究🇯🇵@yukimasakiyu

うわー。これは控えめに言ってやばすぎます。学会でのインシデント史上最悪レベルの大事件だと思います。 【緊急】AI/ML学術界で史上最大級のセキュリティ事故が発生 11月27日、OpenReviewのシステム脆弱性により、プラットフォーム上で運営されている全ての学術会議で著者・査読者・エリアチェアの身元情報が漏洩しました。これは匿名査読という学術の根幹制度が完全に崩壊したことを意味する極めて深刻な事態です。 ■ 影響を受けた主要会議(一部) ・ICLR(全年度) ・NeurIPS(全年度) ・ICML(全年度) ・ACL / ACL Rolling Review ・EMNLP(全年度) ・CVPR(全年度) ・AAAI ・その他、OpenReview上の各種ワークショップ・シンポジウム つまり、AI・機械学習・自然言語処理・コンピュータビジョン分野のほぼ全ての主要国際会議が影響を受けています。推定で数万人規模の研究者の情報が露出した可能性があります。 ■ 何が漏洩したのか ・論文著者の氏名・所属機関 ・査読者の氏名と担当論文の対応関係 ・エリアチェア(採否判断を行う上級査読管理者)の氏名と担当論文 ・過去の年度の論文についても遡及的にアクセス可能だった 通常、学術会議ではダブルブラインド査読(著者も査読者も互いの身元を知らない)によって公正性を担保していますが、この前提が完全に破壊されました。 ■ すでに発生している実害 ICLR 2026の公式声明によると: ・談合の試みの報告を複数受けている ・査読スコアの異常な上昇を観測 ・著者から査読者への脅迫・賄賂の可能性 これは理論上のリスクではなく、現実に進行中の不正です。「スコアを上げなければ報復する」「金銭で評価を買う」といった行為がすでに行われている可能性が高いと考えられています。 ■ 技術的な原因 OpenReviewの `profiles/search` というAPIエンドポイントで、本来は権限を持つユーザーのみがアクセスできるべき情報が、認可チェックなしで一般公開されていました。URLのパラメータを変更するだけで、特定の会議の査読者リストを誰でも取得できる状態でした。これはセキュリティの基本中の基本である「アクセス制御」の不備(Broken Access Control)であり、OWASP Top 10で最も深刻な脆弱性とされています。 バグは11月27日10:09(UTC)に報告され、11:00には修正されましたが(対応自体は迅速)、一部のユーザーは11月12日頃からこのバグが存在していたと報告しており、2週間以上にわたって悪用可能だった可能性があります。 ■ ICLR 2026の緊急対応 ・全ての論文に新しいエリアチェアを再割り当て ・査読スコアを議論期間開始前の状態に巻き戻し(議論の成果も全て無効化) ・査読者による追加のスコア変更や議論参加を禁止 ・公開コメント機能を無効化 ・不正行為者は投稿論文をデスクリジェクション(査読なし不採択)+複数年の会議出禁 ・OpenReviewは多国籍法執行機関と連携し、悪用者への法的措置を検討 ■ なぜこれほど深刻なのか 1. 査読者への報復リスク:低評価をつけた査読者が特定され、SNSでの晒し上げ、職場への苦情、将来的な報復査読などのリスクに晒されます。これにより、今後査読を引き受ける研究者が減少する可能性があります。 2. 学術的公正性の崩壊:著者が査読者を特定できてしまうと、圧力・脅迫・賄賂によって評価を歪めることが可能になり、論文の質による公正な評価という学術の根幹が機能しなくなります。 3. 過去の論文への遡及的影響:過去に不採択になった論文の著者と査読者の関係が判明することで、「あの時の恨み」に基づく将来的な報復が可能になります。学術コミュニティ内の人間関係・権力構造が可視化されたことの影響は計り知れません。 4. 採択結果への永続的な不信:ICLR 2026で採択された論文は「本当に公正に評価されたのか」という疑念が常につきまといます。不採択になった著者は「談合で落とされたのでは」と考える可能性があります。 5. 中央集権的インフラのリスク:AI/ML分野の主要会議のほぼ全てが単一のプラットフォーム(OpenReview)に依存していたことで、一つのバグが分野全体を揺るがす結果となりました。 ■ 今後への影響 ・査読者のなり手がさらに減少(すでにAI/ML分野では投稿数爆発により査読者不足が深刻) ・オープンレビューへの移行議論の再燃 ・分散型査読システムの研究加速 ・OpenReview以外のプラットフォームへの移行検討 ・学術会議の運営体制・セキュリティ基準の見直し この事件は、デジタル化された学術インフラの脆弱性と、品質保証システムそのものの信頼性が問われる歴史的な転換点となる可能性があります。 詳細な技術解説:mgx.dev/blog/openrevie…

日本語
1
4
31
19.3K
Karan Jagtiani
Karan Jagtiani@karanjagtiani04·
@asurobot Scaling to robot table tennis and neural net weights shows ProPS handles diverse control parameters. Fine-tuning LLMs next should clarify robustness in larger, dynamic tasks.
English
1
0
1
91
Heni Ben Amor
Heni Ben Amor@asurobot·
NeurIPS 2025 Paper: LLMs are Reinforcement Learners 🤯! Surprisingly, we show that LLMs can solve RL tasks without any external component! We introduce Prompted Policy Search (ProPS), an RL method based only LLMs and in-context learning. [Paper] props-llm.github.io
English
6
43
192
50.8K
Heni Ben Amor
Heni Ben Amor@asurobot·
@karanjagtiani04 We were able to scale it up to tasks such as robot table tennis or roughly ~100 policy params being optimized. Surprisingly, we even got it to learn the weights of small neural networks. We are currently following up on scaling this approach beyond that, by fine-tuning the LLMs.
English
1
0
0
412
Karan Jagtiani
Karan Jagtiani@karanjagtiani04·
@asurobot Nice to see RL tasks tackled purely with LLMs and in-context learning. Curious how well ProPS scales with more complex environments?
English
1
0
1
427