Roni Dover 💔

2.7K posts

Roni Dover 💔 banner
Roni Dover 💔

Roni Dover 💔

@doppleware

Infovore and board game geek. co-founder of https://t.co/KNnoqs4hDG

Sunnyvale California Katılım Ağustos 2008
535 Takip Edilen343 Takipçiler
Roni Dover 💔 retweetledi
Vladislav Tankov
Vladislav Tankov@vdtankov·
We released air.dev — a new Agentic Development Environment by JetBrains. Claude, Gemini, Codex, and Junie side-by-side with you — powered by code insight, beautiful UI, and vast development tooling. But underneath there's a technological iceberg. Let me walk you through it. 🧵
English
11
32
200
64.5K
Noa 👾
Noa 👾@Noa_Liberator·
כמובן
Noa 👾 tweet media
עברית
2
0
17
780
Roni Dover 💔 retweetledi
Elad Simchayoff
Elad Simchayoff@Elad_Si·
There’s nothing like some Irish activists explaining Iran to Iranians. Wearing a keffiyeh, demanding “proof,” armed with the deep geopolitical expertise they acquired on TikTok. Defending a murderous regime and believing they’re the moral side of history. The western anti Zionist movement in a nutshell. This video should be taught at schools.
English
13
67
341
7.8K
Roni Dover 💔
Roni Dover 💔@doppleware·
@kerenshahar5 פוסט מעניין בדיוק בנושא הזה מלפני כמה ימים: x.com/burkov/status/…
BURKOV@burkov

LLMs process text from left to right — each token can only look back at what came before it, never forward. This means that when you write a long prompt with context at the beginning and a question at the end, the model answers the question having "seen" the context, but the context tokens were generated without any awareness of what question was coming. This asymmetry is a basic structural property of how these models work. The paper asks what happens if you just send the prompt twice in a row, so that every part of the input gets a second pass where it can attend to every other part. The answer is that accuracy goes up across seven different benchmarks and seven different models (from the Gemini, ChatGPT, Claude, and DeepSeek series of LLMs), with no increase in the length of the model's output and no meaningful increase in response time — because processing the input is done in parallel by the hardware anyway. There are no new losses to compute, no finetuning, no clever prompt engineering beyond the repetition itself. The gap between this technique and doing nothing is sometimes small, sometimes large (one model went from 21% to 97% on a task involving finding a name in a list). If you are thinking about how to get better results from these models without paying for longer outputs or slower responses, that's a fairly concrete and low-effort finding. Read with AI tutor: chapterpal.com/s/1b15378b/pro… Get the PDF: arxiv.org/pdf/2512.14982

עברית
1
0
2
90
Keren Shahar • קרן שחר
Keren Shahar • קרן שחר@kerenshahar5·
איתור מידע/חוקיות בתוך מסמכים ארוכים ומשעממים 💡דוגמא 4 נגיד שהעליתם מסמך ארוך עם כללי מערכת או תקנון, ובסוף שאלתם: "האם לפי המסמך מותר לתת לאנשים אחרים הרשאות גישה למערכת?" קריאה רציפה בלי מטרה מוגדרת מראש עלולה לגרום ל-AI לפספס סעיפים קטנים. חזרה על כל הפרומפט פעמיים הופכת את הקריאה השנייה לחיפוש ממוקד מטרה – ה-AI יסרוק מחדש את המסמך כששאלת הגישה יושבת לו בזיכרון לאורך כל הדרך, וייתן תשובה הרבה יותר מדויקת.
עברית
3
0
14
2.7K
Keren Shahar • קרן שחר
Keren Shahar • קרן שחר@kerenshahar5·
יש טריק אחד פשוט וגאוני שישדרג את התשובות שאתם מקבלים ממודלי שפה, והטריק הזה פותר את הבעיה הבסיסית שבה הבינה המלאכותית קוראת טקסטים רק קדימה. תחשבו על זה: כשאתם מקבלים קטע קריאה עם שאלות, אתם בדרך כלל קופצים ישר לסוף כדי לראות מה שואלים, ואז חוזרים לקרוא את הטקסט כדי לחפש את התשובה. לבינה מלאכותית אין את היכולת הזאת. היא קוראת מילה אחר מילה, בלי שום אפשרות להציץ קדימה לטוקנים (מילים) שעוד לא הופיעו. לכן, אם הדבקתם לה מגילה ארוכה של טקסט ורק בסוף שאלתם שאלה, היא קראה את הכל "על עיוור", בלי לדעת מראש מה היא אמורה לחפש. כאן נכנס הטריק: הכפלת הבקשה. ובמילים פשוטות: כתבו את אותו הפרומפט פעמיים ברצף באותה השאלה למודל למה זה עובד? כי כשה-AI מגיע לקרוא את הטקסט בסיבוב השני, השאלה כבר נמצאת בזיכרון שלו מסיבוב הקריאה הראשון, אבל הפעם הוא מפוקס ויודע לחפש מראש בדיוק את מה שביקשתם. התוצאה היא זינוק ניכר ברמת הדיוק של התשובות. מחקר של גוגל מראה שהטכניקה הזו מעלה את רמת הדיוק במודל כמו Gemini מ-21.33% ל-97.33%.  אז מתי בדיוק שווה להשתמש בטריק הזה? מצרפת לכם דוגמאות בשרשור>> 👇🏻
Keren Shahar • קרן שחר tweet media
עברית
15
7
193
24.5K
Yotam Gutman
Yotam Gutman@GutmanYotam·
דלפ"ק- בריוש זה אלוהי
Yotam Gutman tweet media
עברית
12
1
210
22.6K
Lord Alon Carmel 🤘
Lord Alon Carmel 🤘@aloncarmel·
איך הולך להראות עולם הפרודקט והפיתוח בשנים הקרובות: המון פי אמים שמפתחים או המון מפתחים שמנהלים מוצר?
עברית
20
0
20
4.2K
Raanan Avidor
Raanan Avidor@ravidor·
The Ones Who Walk Away from Omelas, a short story by Ursula K. Le Guin. Jesus, she is good.
English
1
0
1
15
Roni Dover 💔
Roni Dover 💔@doppleware·
@amit_segal שמעתי שאמרת במהדורה שלא מספיק שהיא מעביר את האחריות לחקירה לפרקליט הראשי כיוון שהוא למעשה כפוף לה. זה אמור להיות נכון גם לניגוד העניינים של נתניהו לא?
עברית
0
0
1
225
עמית סגל
עמית סגל@amit_segal·
אפילו שעון מקולקל צודק פעמיים ביום, אבל דרוקר הוא שעון דיגיטלי
עמית סגל tweet media
עברית
144
133
2.7K
48.9K
Rock Mada
Rock Mada@RackMada·
כמה היפוקסיה ולכמה זמן צריך כדי לטפל במחלות? זו שאלה פתוחה. מדענים הצליחו לפתח תרופה שתקשר ותוריד את ריכוז החמצן בגוף. האם זו הגלולה שאנו צריכים כנגד מחלות והארכת חיים? האם החמצן שאנו כל כך צריכים הוא גם מה שהורג אותנו בסוף? ואולי לא צריך כל כך הרבה ממנו? pubmed.ncbi.nlm.nih.gov/39621311/
Rock Mada tweet media
עברית
9
0
84
2.8K
Rock Mada
Rock Mada@RackMada·
חמצן חיוני לגופינו וריכוזו החלקי בגובה פני הים הוא 21%, כאשר נטפס לגובה, ריכוזו החלקי יקטן. בגובה של כ3000 מ מעל פני הים הוא ירד לכ14% ב5000 מ הוא יהיה כ11%. התנאים הללו נקראים היפוקסיה, או חוסר בחמצן. ויש תוצאות ביולוגיות מפתיעות לאנשים ששוהים בגבהים הללו. בתחילת שנות ה60 היתה>
Rock Mada tweet media
עברית
14
1
177
11.2K
John Brown
John Brown@brown_johnbrown·
זו לא מחלוקת ימין/שמאל אלא אמת/מניפולציה. כששקר נהפך לליבת הנרטיב—המדיניות שנגזרת ממנו עולה בחיי אדם.
עברית
2
2
125
2.1K
John Brown
John Brown@brown_johnbrown·
דיברו הרבה בשבועיים האחרונים על חוסר הסיקור של הזוועות בעזה בחדשות 12. הייתה לזה כמובן השפעה, לדעתי שולית יותר ממה שמייחסים לה. כי הציבור הישראלי לא התנגד לזוועות; למעשה, כאשר פורסמו סרטוני זוועה—למשל של כלב אוכל אישה—אלפים היללו אותם.
עברית
10
43
260
11K
Tabatha Southey 🇨🇦
Tabatha Southey 🇨🇦@TabathaSouthey·
Some pure evil from @nationalpost. Note the quotes. I wonder if the journalists who penned this gave a thought to how normalizing the murder of journalists by calling them terrorists might someday bite them, or someone else whose basic humanity they recognize, in the ass.
Tabatha Southey 🇨🇦 tweet media
English
22
104
305
10.6K
Rock Mada
Rock Mada@RackMada·
הרבה שאלו: pmc.ncbi.nlm.nih.gov/articles/PMC89… ליתיום משמש כתרופה במחלות פסיכיאטריות, וכן ננמצא קשר קורלטיבי בין השימוש בליתיום לבין ירידה של הארעות דמנציה אצל האנשים שלקחו
עברית
6
0
77
3.3K
Rock Mada
Rock Mada@RackMada·
הכל מתחיל במחקר קורלטיבי סופר מעניין שמתפרסם על אוכלוסיה דנית ב2017, ויכול להיות שהולך לפתור את אחת מהמחלות הכי מסובכות לפתרון! אלצהיימר היא מחלה נוראית שכמעט ואין לה טיפול. מחקר שפורסם ב2017 מצא קורלציה הפוכה ומאוד מעניינת בין דמנציה לבין ליתיום במי השתיה. ככל שהיה יותר ליתיום>
Rock Mada tweet media
עברית
32
23
576
29.6K