Sergey Bukhman

4.3K posts

Sergey Bukhman banner
Sergey Bukhman

Sergey Bukhman

@NinjaRabbi

AI, Gaming, Product Management | I also act in TV shows sometimes

Tel-Aviv, Israel Katılım Eylül 2007
299 Takip Edilen289 Takipçiler
Gamecraft Podcast
Gamecraft Podcast@gamecraftpod·
“A Theory of Fun” is now live on all platforms. @mitchlasky and @blakeir discuss how games got better at progression and worse at fun, why moment-to-moment play still matters, and what Nintendo continues to understand better than almost anyone.
Gamecraft Podcast tweet media
English
1
1
13
4.3K
ClaudeDevs
ClaudeDevs@ClaudeDevs·
In the last four Claude Code CLI releases, we’ve shipped 50+ stability and performance fixes. Faster resume, stable auth, lower memory, fewer hangs: 🧵
English
221
123
3.2K
616.7K
Sergey Bukhman retweetledi
MK Vladimir Beliak ולדימיר בליאק🎗️
כמה מילים על "יש עתיד", אשמח אם תקראו עד הסוף. בשבועות האחרונים מתפרסמים חדשות לבקרים טורים ומאמרים, שבהם נטען כי "יש עתיד סיימה את דרכה" ו"יאיר לפיד צריך לפרוש". אין בכך חדש - את "סיום דרכה" של "יש עתיד" מנבאים כבר 14 שנים. אך הפעם באמת מדובר בקמפיין עוצמתי, שמתודלק לאורך תקופה ארוכה על ידי ערוץ 14 והסקרים המפוברקים של פילבר, ומגובה גם על ידי חלקים מהמחנה הליברלי עצמו, במטרה לשפר עמדות לקראת הבחירות. מה אני חושב על זה? אומר לכם בכנות - אני חושש מהבחירות הקרובות. אני נחוש וממוקד, אך חושש מאוד. לא חושש לגורלי הפוליטי - תאמינו לי, אני אהיה בסדר. לא חושש לגורלה של הבית הפוליטי שלי - אני חושש מאוד לעתיד המדינה. הבחירות האלה הן באמת גורליות, כי ישראל הגיעה לצומת מסוכן ומכריע: מדינה יהודית, דמוקרטית, ליברלית ומאירת פנים - מול מדינה לאומנית, אלימה, חשוכה ונפסדת. הבחירות הללו לא הולכות להסתיים בניצחון של 70 מנדטים למחנה מסוים. זה שוב יהיה בין 61 ל-64, ואז מיד לאחר סגירת הקלפיות נתניהו יפעיל את "המכונה" לקילוף חלקים מהמחנה הליברלי. נתניהו טוב בזה. הוא יודע לחזר, יודע לשכנע, וגם יודע לשלם - ללא קווים אדומים. חווינו ניסיון מר בשנים האחרונות. וכאן נדרשים עמוד שדרה, אורך רוח, ניסיון מוכח ונאמנות לערכים. אני לגמרי סומך על נפתלי בנט. הוא שותף שלנו והיה ראש ממשלה לא רע בכלל. אבל האם אתם סומכים על מספר 8 או מספר 14 ברשימה שלו? האם מחר הם לא יערקו למחנה הנגדי כמו סילמן ושירלי בכנסת ה-24? אני לא משוכנע שלנפתלי יש תשובה לשאלה הזאת. הדבר נכון גם לגבי גדי איזנקוט, שאני באמת קטונתי מלבקר אותו - האיש משכמו ומעלה, וגם שילם מחיר כבד מנשוא על הפקרות ממשלת "הימין על מלא". אך מה אתם יודעים על נאמנות הרשימה שלו למחנה? האם גם הם יעמדו בלחצים? אני מאוד סומך על אפרת רייטן, נעמה לזימי וגלעד קריב. הלכנו יחד שלוש שנים בשוחות בתקופה הכי קשה ומאתגרת. אך אני זוכר כיצד מנהיגי "המחנה הציוני" בכנסת ה-20 רק בנס לא הצטרפו לקואליציית נתניהו, וכיצד אבי גבאי וטל רוסו כמעט שברו את שוויון הגושים בכנסת ה-21. מה יהיה בפריימריז? אילו אנשים ייכנסו, והאם ניתן להבטיח כי הם לא ילכו בדרכם של גבאי ורוסו? רוצים שנדבר על בני גנץ? באמת שאין צורך להרחיב. וכך יוצא כי רק עלינו, על "יש עתיד", ניתן לסמוך. בקדנציה הזאת, בכנסת ה-25, אנחנו עברנו ועדיין עוברים גיהינום. טרור פרלמנטרי של ממש. פגיעה בזכויות האופוזיציה, דריסה בוועדות, רמיסת הייעוץ המשפטי, אלימות מילולית בלתי פוסקת, השפלות וחציית כל הגבולות. תקופה שבה קשה מאוד להיות אופוזיציה, ודאי אופוזיציה בזמן מלחמה, עם כל האתגרים שהמציאות מציבה בפנינו מדי יום. תקופה נוראית ומגעילה. ראיתי כיצד השותפים שלנו לאופוזיציה נשברים ומוותרים. סער ואלקין, חסרי העקרונות, זחלו לממשלה. אפילו שרן השכל, שהלב שלה במקום הנכון - ויתרה. יפעת שאשא-ביטון פרשה, והיא לא היחידה. אחרים ויתרו בלי לפרוש - נאלמו ונעלמו, התחילו לשתף פעולה עם הקואליציה בחקיקה, והעניקו לגיטימציה למפלגתו הפשיסטית של בן גביר. ורק "יש עתיד" לא פרשה, לא נאלמה, נשארה בזירה והובילה את כל המאבקים המשמעותיים - נגד חוק ההשתמטות, הכספים הקואליציוניים, ההשתלטות על התקשורת, ההפיכה המשפטית ועוד. הובילה - וגם נחלה הצלחות רבות. כן, אני יודע שכולם כאן הפכו למומחים להפלת ממשלות ול"הבקעה מול שער ריק". בפועל, וסליחה על הבוטות - מדובר בקשקוש. כמעט ולא ניתן להפיל קואליציה עם רוב כל כך מובהק, ברגע שהיא מצופפת שורות. ודאי בזמן מלחמה. ודאי במציאות שבה חלקים גדולים מהמחנה, לאחר ה-7.10, היו בעזה ובלבנון, התמודדו עם השכול והאובדן, ועברו להישרדות יומיומית. וכן, הקואליציה לאחר ה-7.10 צופפה שורות, בין היתר בחסות כניסת "המחנה הממלכתי" לממשלה עד יוני 2024. ורק "יש עתיד" לא ויתרה לרגע - כי עלינו אפשר לסמוך. אני גם שומע וקורא טענה משונה שלפיה "ליש עתיד יש חברי כנסת מצוינים, אבל לפיד צריך ללכת". שאלתם את עצמכם מדוע הנבחרת שלנו כל כך משובחת? כי מישהו הרכיב אותה והכשיר אותה. למישהו הזה קוראים יאיר לפיד. ואנחנו, כל הסיעה - אגרוף אחד, כפי שתמיד היינו. לא ניתן "לקנות" או לפתות אותנו - לא מחוץ למחנה ולא מתוך המחנה. גם כאן עלינו אפשר לסמוך. אתם באמת קוראים ללפיד לפרוש? ליחיד מהמחנה הליברלי שהוכיח מיומנות פוליטית וכשירות לנצח את נתניהו, להרכיב ולהוביל את הממשלה הטובה ביותר שהייתה כאן לפחות בשלושת העשורים האחרונים? אין גבול לקניבליזם בתוך המחנה שלנו? השתגעתם? אומר לכם עוד משהו, ברמה האישית - לאחר כל מה שעברתי בשנים האחרונות באופוזיציה, אני אדם אחר ופרלמנטר אחר. נחוש יותר, מנוסה הרבה יותר, נטול השליות. דווקא כי אני יודע באיזו סכנה קיומית הממשלה הזאת מציבה את המדינה שלי. ואני מבין שעלינו להציל אותה. וזה רק עלינו. ועלינו אפשר לסמוך. על כל הקבוצה המצוינת שלנו, בהובלת לפיד. אנחנו רחוקים מלהיות מושלמים. עשינו, עושים ועוד נעשה טעויות והחלטות לא מוצלחות. לא פעם לא היינו קשובים מספיק לרחשי הלב של הציבור. כנראה שגם איבדנו חדות לפרקים. אבל אנחנו, "יש עתיד" - מניה בטוחה. באנקר בקלפי. מנוסים, נחושים, נאמנים לדרך. תמיד. רק אם נהיה גדולים - המחנה ינצח וגם, לא פחות חשוב, ישמור על הניצחון לצורך הרכבת הממשלה. אנחנו הקול שלכם. בואו לנצח ולשנות.
עברית
234
144
1.3K
50.8K
Ram Gilboa
Ram Gilboa@RamGilboa·
דירוג שיטות לחימה שהתאמנתי או התחריתי מולן, רק לפי היעילות שלהן בהגנה עצמית בידיים חשופות: ג'יו-ג'יטסו (ברזילאי) - 8.5/10. הכי יעיל בקרבות אחד על אחד, כמעט ולא יעיל בכמה על אחד (אבל כמעט דבר לא). הכי טובים על הקרקע רק שברוב המכונים - לא בכולם - לא עובדים ברצינות על איך להגיע לשם
GIF
עברית
40
7
186
30.1K
David Lisovtsev
David Lisovtsev@david_lisovtsev·
בכל מקרה הכורדים אומרים שכ 8,000 לוחמים הסתננו לאיראן מאז ינואר והתחברו למיליציות המקומיות, יש עוד כמה אלפים שצריכים להכנס לאיראן. יש נוכחות מאוד כבדה של כוחות מיוחדים של הקואליציה, לטובת סימון לסיוע אווירי קרוב. אבל ממה שאומרים לי, עוד לא התחילה לחימה עצימה.
David Lisovtsev@david_lisovtsev

שני הציוצים נמחקו היות והכתבה באיי 24 לא נכונה. דיברתי עם לוחם באחת המיליציות הכורדיות והוא אומר שזה עוד לא התחיל. אבל זה בהחלט יקרה. סליחה על הטעות, אנסה לוודא טוב יותר בעתיד.

עברית
34
7
372
26.5K
Sergey Bukhman
Sergey Bukhman@NinjaRabbi·
@ChrisPainterYup You're being very conservative. I think we're pretty close to this in Feb 2026. Lot's of variance though
English
0
0
1
178
Chris Painter
Chris Painter@ChrisPainterYup·
I think it's a reasonable median expectation that, in February of 2028, software projects that would've taken a pre-AI human around *2 working months* to build will have a 50% chance of being completed by an AI with a single prompt.
METR@METR_Evals

We estimate that GPT-5.2 with `high` (not `xhigh`) reasoning effort has a 50%-time-horizon of around 6.6 hrs (95% CI of 3 hr 20 min to 17 hr 30 min) on our expanded suite of software tasks. This is the highest estimate for a time horizon measurement we have reported to date.

English
10
29
322
46.3K
אבי מעוז
אבי מעוז@AVI_MAOZ·
במקום לבנות הערכה והערצה לתנ״ך, בטלויזיה החינוכית מסבירים שסיפורי התנ״ך אלו בדיות שלא קרו. כ-100 מיליון ש״ח בשנה על חשבון הציבור. @kann
עברית
274
58
375
34.5K
🍓🍓🍓
🍓🍓🍓@iruletheworldmo·
kinda funny when people say openai are losing ground. nothing comes remotely close to chatgpt it’s like comparing google to bing.
🍓🍓🍓 tweet media
English
80
13
270
31.6K
Sergey Bukhman retweetledi
Konstantin Kisin
Konstantin Kisin@KonstantinKisin·
Becoming a father changed my perspective on many things. In many ways, it actually makes it harder for me to understand some people. Like the two terrorists from Bondi Beach, who turned out to be father and son. How can you look your newborn son in the eyes and see this totally innocent being whom it is your responsibility to raise, protect and guide, and watch them crawl, take their first steps, say their first word, and then guide them into a murder-suicide? These people are not like us.
English
610
2.1K
19.5K
351.4K
Sergey Bukhman
Sergey Bukhman@NinjaRabbi·
@chaimlevinson @NaorNarkis אתה קצת עושה פה ליאור שליין. אתה מתמקד בצורה אבל לא בעיקר. נאור פועל כדי להביא שינוי - הוא עושה את זה גם ברחוב וגם באולפנים. כן, לפעמים זה יכול להיות קרינג', אבל מישהו חייב לעשות משהו. לצאת מאזור הנוחות. חוץ מזה, תקשיב למה שהוא אשכרה אומר ועושה - בתכלס הוא לא קיצוני בכלל
עברית
0
0
3
70
Tim Urban
Tim Urban@waitbutwhy·
The plot of Pluribus is so compelling that it manages to still be a good show despite the unbelievable annoying protagonist
English
231
85
2.9K
244.8K
Sergey Bukhman
Sergey Bukhman@NinjaRabbi·
@Boson_Zhe @waitbutwhy Her bitterness and total lack of curiosity or wonder. Like, you can talk to any human on earth, have any experience, visit any place, eat any food. It's unclear to me why she's even fighting the hive, she seems to hate everything about life.
English
3
0
1
80
Evgenii
Evgenii@Boson_Zhe·
@waitbutwhy Why is she annoying? She seems absolutely sane person in the given circumstances, in the moment of grief in addition to that. Her flashbacks of life before showed how unhappy and bitter she was; understandably so due to a shit show of a business she’s in.
English
1
0
22
887
Sergey Bukhman
Sergey Bukhman@NinjaRabbi·
@waitbutwhy Yes! Thank you! How can anyone be so incurious, resentful and boring?! She can ask who killed Kennedy, do Disneyland, get a private flight to the Taj Mahal, see any movie and show, eat any food. But she watched Golden Girls and eats icecream. Really an unbearable protagonist.
English
4
0
0
240
Sergey Bukhman
Sergey Bukhman@NinjaRabbi·
@Nadav_Eyal אני לא רואה נימוק. הוא פשוט אומר שזה לא נכון. יש לו אינטרס מובהק לומר את זה, ובכלל בלתי אפשרי לשפוט האם התקיפה עזרה או הזיקה. קורלציה אינה סיבתיות, אבל כל התהליכים הדיפלומטיים שאביו וקושנר הובילו עד לאותה נקודה לא נשאו פרי. לא מוגזם להניח שהתקיפה דחקה את הקטארים לכיוון הנכון.
עברית
3
0
33
1.2K
Sergey Bukhman
Sergey Bukhman@NinjaRabbi·
@karpathy It’s the difference between raising a child with good values vs. deciding what counts as ‘human nature’. The first is hard, the second is playing God (or nature)
English
0
0
0
23
Sergey Bukhman
Sergey Bukhman@NinjaRabbi·
@karpathy Animals don’t choose their outer loop, evolution does. Survive and replicate. Play, fun, curiosity are just cool side-effects. For AI, we decide the root drive. The higher-plane alignment problem isn't “what tasks should it do for us?” But “what should its nature even be?
English
1
0
0
139
Andrej Karpathy
Andrej Karpathy@karpathy·
Finally had a chance to listen through this pod with Sutton, which was interesting and amusing. As background, Sutton's "The Bitter Lesson" has become a bit of biblical text in frontier LLM circles. Researchers routinely talk about and ask whether this or that approach or idea is sufficiently "bitter lesson pilled" (meaning arranged so that it benefits from added computation for free) as a proxy for whether it's going to work or worth even pursuing. The underlying assumption being that LLMs are of course highly "bitter lesson pilled" indeed, just look at LLM scaling laws where if you put compute on the x-axis, number go up and to the right. So it's amusing to see that Sutton, the author of the post, is not so sure that LLMs are "bitter lesson pilled" at all. They are trained on giant datasets of fundamentally human data, which is both 1) human generated and 2) finite. What do you do when you run out? How do you prevent a human bias? So there you have it, bitter lesson pilled LLM researchers taken down by the author of the bitter lesson - rough! In some sense, Dwarkesh (who represents the LLM researchers viewpoint in the pod) and Sutton are slightly speaking past each other because Sutton has a very different architecture in mind and LLMs break a lot of its principles. He calls himself a "classicist" and evokes the original concept of Alan Turing of building a "child machine" - a system capable of learning through experience by dynamically interacting with the world. There's no giant pretraining stage of imitating internet webpages. There's also no supervised finetuning, which he points out is absent in the animal kingdom (it's a subtle point but Sutton is right in the strong sense: animals may of course observe demonstrations, but their actions are not directly forced/"teleoperated" by other animals). Another important note he makes is that even if you just treat pretraining as an initialization of a prior before you finetune with reinforcement learning, Sutton sees the approach as tainted with human bias and fundamentally off course, a bit like when AlphaZero (which has never seen human games of Go) beats AlphaGo (which initializes from them). In Sutton's world view, all there is is an interaction with a world via reinforcement learning, where the reward functions are partially environment specific, but also intrinsically motivated, e.g. "fun", "curiosity", and related to the quality of the prediction in your world model. And the agent is always learning at test time by default, it's not trained once and then deployed thereafter. Overall, Sutton is a lot more interested in what we have common with the animal kingdom instead of what differentiates us. "If we understood a squirrel, we'd be almost done". As for my take... First, I should say that I think Sutton was a great guest for the pod and I like that the AI field maintains entropy of thought and that not everyone is exploiting the next local iteration LLMs. AI has gone through too many discrete transitions of the dominant approach to lose that. And I also think that his criticism of LLMs as not bitter lesson pilled is not inadequate. Frontier LLMs are now highly complex artifacts with a lot of humanness involved at all the stages - the foundation (the pretraining data) is all human text, the finetuning data is human and curated, the reinforcement learning environment mixture is tuned by human engineers. We do not in fact have an actual, single, clean, actually bitter lesson pilled, "turn the crank" algorithm that you could unleash upon the world and see it learn automatically from experience alone. Does such an algorithm even exist? Finding it would of course be a huge AI breakthrough. Two "example proofs" are commonly offered to argue that such a thing is possible. The first example is the success of AlphaZero learning to play Go completely from scratch with no human supervision whatsoever. But the game of Go is clearly such a simple, closed, environment that it's difficult to see the analogous formulation in the messiness of reality. I love Go, but algorithmically and categorically, it is essentially a harder version of tic tac toe. The second example is that of animals, like squirrels. And here, personally, I am also quite hesitant whether it's appropriate because animals arise by a very different computational process and via different constraints than what we have practically available to us in the industry. Animal brains are nowhere near the blank slate they appear to be at birth. First, a lot of what is commonly attributed to "learning" is imo a lot more "maturation". And second, even that which clearly is "learning" and not maturation is a lot more "finetuning" on top of something clearly powerful and preexisting. Example. A baby zebra is born and within a few dozen minutes it can run around the savannah and follow its mother. This is a highly complex sensory-motor task and there is no way in my mind that this is achieved from scratch, tabula rasa. The brains of animals and the billions of parameters within have a powerful initialization encoded in the ATCGs of their DNA, trained via the "outer loop" optimization in the course of evolution. If the baby zebra spasmed its muscles around at random as a reinforcement learning policy would have you do at initialization, it wouldn't get very far at all. Similarly, our AIs now also have neural networks with billions of parameters. These parameters need their own rich, high information density supervision signal. We are not going to re-run evolution. But we do have mountains of internet documents. Yes it is basically supervised learning that is ~absent in the animal kingdom. But it is a way to practically gather enough soft constraints over billions of parameters, to try to get to a point where you're not starting from scratch. TLDR: Pretraining is our crappy evolution. It is one candidate solution to the cold start problem, to be followed later by finetuning on tasks that look more correct, e.g. within the reinforcement learning framework, as state of the art frontier LLM labs now do pervasively. I still think it is worth to be inspired by animals. I think there are multiple powerful ideas that LLM agents are algorithmically missing that can still be adapted from animal intelligence. And I still think the bitter lesson is correct, but I see it more as something platonic to pursue, not necessarily to reach, in our real world and practically speaking. And I say both of these with double digit percent uncertainty and cheer the work of those who disagree, especially those a lot more ambitious bitter lesson wise. So that brings us to where we are. Stated plainly, today's frontier LLM research is not about building animals. It is about summoning ghosts. You can think of ghosts as a fundamentally different kind of point in the space of possible intelligences. They are muddled by humanity. Thoroughly engineered by it. They are these imperfect replicas, a kind of statistical distillation of humanity's documents with some sprinkle on top. They are not platonically bitter lesson pilled, but they are perhaps "practically" bitter lesson pilled, at least compared to a lot of what came before. It seems possibly to me that over time, we can further finetune our ghosts more and more in the direction of animals; That it's not so much a fundamental incompatibility but a matter of initialization in the intelligence space. But it's also quite possible that they diverge even further and end up permanently different, un-animal-like, but still incredibly helpful and properly world-altering. It's possible that ghosts:animals :: planes:birds. Anyway, in summary, overall and actionably, I think this pod is solid "real talk" from Sutton to the frontier LLM researchers, who might be gear shifted a little too much in the exploit mode. Probably we are still not sufficiently bitter lesson pilled and there is a very good chance of more powerful ideas and paradigms, other than exhaustive benchbuilding and benchmaxxing. And animals might be a good source of inspiration. Intrinsic motivation, fun, curiosity, empowerment, multi-agent self-play, culture. Use your imagination.
Dwarkesh Patel@dwarkesh_sp

.@RichardSSutton, father of reinforcement learning, doesn’t think LLMs are bitter-lesson-pilled. My steel man of Richard’s position: we need some new architecture to enable continual (on-the-job) learning. And if we have continual learning, we don't need a special training phase - the agent just learns on-the-fly - like all humans, and indeed, like all animals. This new paradigm will render our current approach with LLMs obsolete. I did my best to represent the view that LLMs will function as the foundation on which this experiential learning can happen. Some sparks flew. 0:00:00 – Are LLMs a dead-end? 0:13:51 – Do humans do imitation learning? 0:23:57 – The Era of Experience 0:34:25 – Current architectures generalize poorly out of distribution 0:42:17 – Surprises in the AI field 0:47:28 – Will The Bitter Lesson still apply after AGI? 0:54:35 – Succession to AI

English
415
1.2K
9.5K
2M
Sergey Bukhman retweetledi
Hussain Abdul-Hussain
Hussain Abdul-Hussain@hahussain·
As an Iraqi, I survived Saddam Hussain’s brutality. As a Lebanese, I survived Lebanon’s bloody civil war, Assad’s tyranny, and Hezbollah’s iron fist. In all my life, not a single European stood with Iraqis or Lebanese against their killers. Now, all those who remained silent then are donning a Kufiyyah, pretending that it was Israel that started a war on Palestinians on Oct 7, 2023. It’s the frustration resulting from this global unfairness that made Jews revive their state. It’s this unfairness that keeps Jews seeing how valuable their state is.
English
180
1.3K
6.1K
216.6K
Clinton Thomas
Clinton Thomas@ClintT13·
@mattyglesias It wasn’t sold at all. If you ask 100 Americans to describe the “Abundance Agenda”, maybe 10-12 will know what you’re talking about. “Abundance” is just something people in think tanks talk about in their bubble, but no one ever bothered to sell it outside the Beltway.
English
3
0
0
306
Sergey Bukhman
Sergey Bukhman@NinjaRabbi·
@prerat If you ask it any other Mandela effect question first, it catches itself:
Sergey Bukhman tweet mediaSergey Bukhman tweet mediaSergey Bukhman tweet media
English
0
0
9
522