Meteroa 💫

1.8K posts

Meteroa 💫 banner
Meteroa 💫

Meteroa 💫

@sanode

Katılım Nisan 2009
1.7K Takip Edilen185 Takipçiler
Sabitlenmiş Tweet
Meteroa 💫
Meteroa 💫@sanode·
التغريدات خواطر تأتي بغرض قيد الفكرة مع جزالة التعبير وقصر الحديث على ماقل ودل
العربية
0
0
3
0
Meteroa 💫
Meteroa 💫@sanode·
قَالَ يَذْكُرُ قِصَّةَ جَمْعِ القُرْآنِ: "خَشِيَ عُمَرُ  الفِتْنَةَ، فَقَالَ: مَنْ أَعْرَبُ النَّاسِ؟ فَقَالُوا: سَعِيدُ بْنُ العَاصِ" عمر بن الخطّاب خلدت كتب السير والتراجم هذه العبارة الشهيرة: "أُقِيمَتْ عَرَبِيَّةُ القُرْآنِ عَلَى لِسَانِ سَعِيدِ بْنِ العَاصِ"
العربية
0
0
0
6
Meteroa 💫
Meteroa 💫@sanode·
قال ﷺ: ﴿لَتَنقُضَنَّ عُرى الإسلامِ عُروَةً عُروَة، فكلَّما انتَقَضَت عُروَةٌ تَشَبَّثَ الناسُ بالتي تَليها، وأَوَّلُهُنَّ نَقضاً الحُكم، وآخِرُهُنَّ الصَّلاة﴿
العربية
0
0
0
15
AlNassr FC
AlNassr FC@AlNassrFC_EN·
The moment called… the GOAT answered 👑 One of Ronaldo’s iconic header 🐐
English
115
1.1K
6.3K
57.2K
Meteroa 💫
Meteroa 💫@sanode·
This explains everything happened
Meteroa 💫 tweet media
English
0
0
0
15
Meteroa 💫
Meteroa 💫@sanode·
$300B → ~$5T in ~6 years. This is one of the fastest large-cap wealth creations in history.
English
0
0
0
7
Meteroa 💫
Meteroa 💫@sanode·
قال النبيّ ﷺ: «القرآن لا تَنقَضي عَجائبه» (رواه الترمذي). أنا كنت ومازلت وسوف ابقى في هذا ووالله انه تبيان لكل شيء.
العربية
0
0
0
13
Meteroa 💫
Meteroa 💫@sanode·
الإسلام ـ في عُمقه ـ مَنظومةُ علاقاتٍ تَتَعَيَّن بصِيَغ الكَلام. ولأجل هذا، كانت اللُّغة العربيّة وعاءً للوَحي. لأنّ العربيّة وَحدَها ـ بدِقّتها التَّوظيفيّة ـ قادرةٌ على حَمل هذه المنظومة الدَّقيقة من العَلاقات.
العربية
0
0
0
29
Meteroa 💫
Meteroa 💫@sanode·
اللَّحْنُ : لُغَةُ العَرَبِ وَنَحْوُهَا. "تَعَلَّمُوا اللَّحْنَ وَالفَرَائِضَ وَالسُّنَنَ، كَمَا تَعَلَّمُونَ القُرْآنَ" عمر بن الخطّاب
العربية
0
0
1
64
Meteroa 💫
Meteroa 💫@sanode·
قَالَ يُبَشِّرُ بِالنَّبِيِّ ﷺ: عَلَى غَفْلَةٍ يَأْتِي النَّبِيُّ مُحَمَّدٌ فَيُخْبِرُ أَخْبَارًا صَدُوقًا خَبِيرُهَا منسوب إلى كعب بن لُؤيّ بن غالب القُرَشيّ. أشهد أن محمدا رسول الله وهو جده من قبل فسبحان الله مرسل رسله.
العربية
0
0
0
233
Meteroa 💫
Meteroa 💫@sanode·
@NajwaGhamdi الموضوع الأهم بنظري الان هو recursive artificial intelligence. التعلم الالي من نفسه . الوصول الى هذا سوف يختصر وقت وجهد ويضاعف المنتجات ويسرع الخطى نحو الذكاء الاصطناعي العام أو superintelligence
العربية
0
1
1
560
نجوى مسفر
نجوى مسفر@NajwaGhamdi·
يتم حاليا اختزال الذكاء الاصطناعي في LLMs و هي نماذج لغويه ضخمة مدربة على كميات هائلة من النصوص (كتب، مواقع ويب، محادثات). تتعلم التنبؤ بالكلمة التالية في الجملة. لهذا يمكنها كتابة القصص، الإجابة على الأسئلة، أو الدردشة لكنها كما تعلمون غالبًا ما "تهلوس" (تختلق الحقائق) لأنها لا تفهم العالم الحقيقي حقًا. هي فقط تعرف أنماط اللغة. الآن، تخيل روبوتًا يحتاج إلى تنفيذ مهام مادية مثل دفع مكعب لعبة عبر الطاولة، أو التقاط كوب، أو المشي دون الاصطدام بالأشياء. نموذج اللغة الضخم ليس متمكنا في هذا لأنه لا يشعر بالفيزياء. قد يصف قانون الحركة ، مثلا "إذا دفعت المكعب، فإنه يتحرك" لكنه لا يستطيع التخطيط للحركة الدقيقة في غرفة حقيقية عشوائية مع إضاءة متغيرة أو أسطح زلقة. يقول Yann Lecun وهو عالم ذكاء اصطناعي ساعد في تشكيل الذكاء الاصطناعي الحديث، إننا نحتاج إلى شيء أفضل للروبوتات، وهو ما سماه نموذج العالم. تخيله كمحاكاه في عقل الروبوت والذي تسمح له بتخيل ماذا سيحدث إذا قمت بهذا الفعل؟ قبل أن يتحرك. بالضبط مثل ما يتعلم الطفل من خلال مراقبة العالم، وليس من خلال القراءة عنه. كان هذا شغل Yann الشاغل عندما كان يعمل في ميتا حيث حاول فريقه بناء نماذج العالم هذه من قبل (تسمى JEPA). الطريقة السابقه ببساطه كان الذكاء الاصطناعي ينظر إلى صور الكاميرا، ويحولها إلى كود ملخص قصير (صورة ذهنية بسيطة)، ويمارس التنبؤ بالملخص التالي بعد إجراء. لكن تدريبه كان كابوسًا .. الملخصات كانت تنهار إلى هراء غير مفيد (كل شيء يبدو متشابهًا للذكاء الاصطناعي). كما كان على المهندسين إضافة الكثير من القواعد المعقدة والتعديلات لإصلاحه. غادر LeCun ميتا جزئيًا لأن الشركة ركزت بشدة على صنع نماذج لغة أكبر وأكبر بدلًا من مسار نموذج العالم. بدأ مختبره الخاص، وأصدر مؤخرًا LeWorldModel (اختصارًا لـ LeWM) والذي يحتوي على 15 مليون برامترز(أصغر بكثير من نماذج اللغة الكبيرة الحالية التي تحتوي على مليارات) وهو مدرب مباشرة على مقاطع الفيديو الخام من الكاميرا بدون تحضير معقد وترتيب لهذه البيانات. كما يعمل على GPUs بسيطه (مثل الموجودة في جهاز كمبيوتر الألعاب) وينتهي التدريب في غضون ساعات قليلة. الذي تغير هو ان Lecun وفريقه استعملوا قاعدة رياضية بسيطة جدًا تسمى SIGReg تجعل الملخصات الداخلية للذكاء الاصطناعي تنتشر بشكل جميل مثل Gaussian Distribution . هذه الورقة العلمية مهمة لان ميتا صبت الأموال في توسيع نماذج اللغة لأنها عملت بشكل جيد لتطبيقات الدردشة وحققت أرباحًا سريعة. لكن عمل الروبوتات (بما في ذلك أفكار LeCun) حصل على اهتمام أقل، وتم تقليص بعض الفرق. غادر LeCun وانتقد التركيز المفرط على نماذج اللغة باعتباره "طريقًا مسدودًا للآلات الذكية حقًا. الآن، يظهر نموذجه الصغير الجديد أنه يمكنك بناء عقول روبوتات مفيدة دون إنفاق المليارات على أنظمة ضخمة. تستثمر شركات الروبوتات الكبيرة (مثل تلك التي تصنع الروبوتات البشرية) مبالغ ضخمة في الذكاء الاصطناعي البطيء والمكلف. هذا يشير إلى أن طريقة أرخص وأسرع يمكن أن تعلم الروبوتات الفيزياء من خلال المشاهدة، وليس فقط تخمين الكلمات. المشوار عموما نحو الذكاء الاصطناعي العام ما زال طويلا لان فيزياء الحياة الحقيقية أصعب بكثير مما نتخيل و سيستغرق الموضوع سنوات.
Aakash Gupta@aakashgupta

Earlier this year Yann LeCun left Meta because Mark Zuckerberg wouldn't bet the company on JEPA. Last week his group dropped the first JEPA that actually trains end-to-end from raw pixels. 15 million parameters. Single GPU. A few hours. The timing is not a coincidence. For four years Meta has been the house that JEPA built. LeCun published the original paper from FAIR in 2022. I-JEPA and V-JEPA came out of his lab. The architecture was supposed to be the escape hatch from LLMs, the path to robots that actually learn physics instead of hallucinating about it. Every version shipped fragile. Stop-gradients. Exponential moving averages. Frozen pretrained encoders. Six or seven loss terms that had to be hand-tuned or the model collapsed into garbage representations. Meta kept funding LLMs. Llama shipped. Llama scaled. Llama got beat by Qwen and DeepSeek. Zuck spent $14 billion to buy ScaleAI and install Alexandr Wang. The FAIR robotics group was dissolved. LeCun's research kept winning papers and losing the product roadmap. He left, started AMI Labs, and said publicly that LLMs were a dead end. Now the paper. LeWorldModel. One regularizer replaces the entire pile of heuristics. Project the latent embeddings onto random directions, run a normality test, penalize deviation from Gaussian. The model cannot collapse because collapsed embeddings fail the test by construction. Hyperparameter search went from O(n^6) polynomial to O(log n) logarithmic. Six tunable knobs became one. The downstream numbers are what should scare the robotics capex class. 200 times fewer tokens per observation than DINO-WM. Planning time drops from 47 seconds to 0.98 seconds per cycle. 48x faster at matching or beating foundation-model performance on Push-T and 3D cube control. The latent space probes cleanly for agent position, block velocity, end-effector pose. It correctly flags physically impossible events as surprising. It learned physics without being told physics existed. Figure AI is valued at $39 billion. Tesla Optimus is mass-producing. World Labs raised $230 million to sell generative world models. Everyone in humanoid robotics is burning capital on foundation-model pipelines that plan in 47 seconds per cycle. LeCun's group just showed you can do it with 15 million parameters on a single GPU in a few hours. This is the Xerox PARC pattern running again. Meta had the next architecture. Meta had the scientist. Meta dissolved the robotics team, passed on the productization, and watched the exit. Three months later the lab that was supposed to be Meta's publishes the result that resets the robotics cost structure. The paper is worth more than Alexandr Wang.

العربية
4
11
96
14.1K
Meteroa 💫
Meteroa 💫@sanode·
المعنى الجذريّ. "امكُر لي" بمعنى أشبِعني بتدبيرك الخفيّ، كما تُسقى الأرض بالمكر. فالنبيّ ﷺ يسأل الله أن يشبع أموره بتدبيره الذي يسير خلف الستار، بحيث لا يعلم خصومه كيف دُبِّر الأمر. وهذا معنىً جليل: أنّ المكر في حقّ الله شبعان الحكمة والإحاطة، كما أنّ الأرض المكورة شبعانة الماء.
العربية
0
0
0
50
Meteroa 💫
Meteroa 💫@sanode·
استخدام الفعل بدل اسم الفعل. لم يقل "أنت الماكر لي" ولا "يا ذا المكر الحسن"، بل استعمل فعل الأمر "امكُر". والأمر من العبد لربّه ليس استبداداً، بل استدعاءً للفعل المخصوص. فكأنّه يقول: استعمل لي هذه القوّة الإلهيّة من قواك في حقّي لا في غير حقّي.
العربية
1
0
0
81
Meteroa 💫
Meteroa 💫@sanode·
قول النبيّ ﷺ: "ربّ، أعنّي ولا تُعِن عليّ، وانصرني ولا تنصر عليّ، وامكُر لي ولا تمكُر عليّ".هذا الحديث من أعجب النصوص النبويّة في باب المكر، لأنّه يسأل الله المكر. فكيف يسأل النبيّ ﷺ ربّه أن يمكر له، مع أنّ المكر في ظاهره مذموم؟
العربية
1
0
0
55
Meteroa 💫
Meteroa 💫@sanode·
رَمَتِ الفَيافي بِنا إِلى ابنِ خَصيبِها ... مِثلَ الشِهابِ نَفَت عَنهُ السُكاكا. يصف المتنبي سرعة ناقته وهي تقطع الصحراء (الفيافي). هي ليست مجرد ناقة تجري، بل هي (مثل الشهاب) الذي يشق "السكاك" (وهو الهواء وما بين السماء والأرض).
العربية
0
0
0
372
Meteroa 💫
Meteroa 💫@sanode·
ثم قال: «لو كان الإيمان عند الثريا لناله رجالٌ — أو رجل — من هؤلاء». وفي رواية مسلم: «لو كان الدين عند الثريا لذهب به رجل من فارس — أو قال: من أبناء فارس — حتى يتناوله». (متفق عليه، وصححه الألباني وغيره).
العربية
0
0
0
20
Meteroa 💫
Meteroa 💫@sanode·
عن أبي هريرة رضي الله عنه قال: كنا جلوساً عند النبي ﷺ، فأُنزلت عليه سورة الجمعة: {وَآخَرِينَ مِنْهُمْ لَمَّا يَلْحَقُوا بِهِمْ} [الجمعة: 3]. فقال رجل: من هؤلاء يا رسول الله؟ فلم يراجعه النبي ﷺ حتى سأله مرة أو مرتين أو ثلاثاً. وفينا سلمان الفارسي، فوضع النبي ﷺ يده على سلمان،
العربية
1
0
0
34
Meteroa 💫
Meteroa 💫@sanode·
رَأَيْتُ بَنِي الدُّنْيَا كَأَحْلَامِ نَائِمٍ. وَكَالفَيْءِ يَدْنُو ظِلُّهُ،ثُمَّ يَقْلِصُ منسوب إلى جمعة/خمعة بنت الخُسّ الإياديّة
العربية
0
0
0
33
Meteroa 💫
Meteroa 💫@sanode·
@wirdacademy @SAlshlwy16515 لان السمع هو قناة الوعي. انظر الى قوله تعالى : ﴿وَتَعِيَهَا أُذُنٌ وَاعِيَةٌ﴾ . هم سمعوا ووعوا.
العربية
0
0
0
195
Wird Academy | أكاديمية وِرد
القوة الخفية للأذن السماعية ✍️كتبه أ. #سعود_الشلوي @SAlshlwy16515 إن الجلوس مع رجال الرعيل الأول ممن عاشوا حياة ما قبل النفط يفتح أمامك نافذة على ثقافة لم تدوّنها الكتب بقدر ما حفظتها الصدور. ومما كان يشدني في مجالستهم ليس مجرد الرواية، بل تلك "الأذن السماعية" المرهفة التي يمتلكونها، فهي أذن ذات ذائقة نخبوية رفيعة، تجعل صاحبها يستقيم على جرس الكلمة ووزنها بفطرته وسليقته، حتى وإن لم يكن شاعراً أو دارساً لـ اللغة. تجد أحدهم يسرد القصائد الطويلة بسردية مذهلة وقوة حفظ عجيبة، وأرى أن السر في ذلك يكمن في أنهم لا يحفظون كلمات جامدة، بل يحفظون "أنغاماً" لغوية لا تقبل الخلل، فمتى ما انكسر البيت أو اضطرب المعنى، لفظته آذانهم قبل ألسنتهم. هذه الميزة السمعية هي المحرك الخفي لقوة الذاكرة التي اشتُهر بها العرب الأوائل، الذين حفظوا الأنساب والقصائد لقرون دون الحاجة لتدوين. فالعربي الذي يأنف من "اللحن" ويستنكر المفردة الدخيلة، يمتلك نظاماً داخلياً يربط بين البلاغة وبين مشاعره ووجدانه؛ فالكلمة عندهم ليست مجرد وسيلة تواصل، بل هي أداة تؤثر في الحالة النفسية وتُحرك الشجن أو الفخر. ومن هنا ندرك لماذا كانت معجزة نبينا محمد ﷺ هي القرآن الكريم؛ فقد نزل بقمة البيان والفصاحة ليخاطب قوماً تقدس آذانهم النظم البليغ والقول الرصين، فلم يجدوا أمام هذا الإعجاز إلا الإقرار بعظمته لأنه لامس تلك الحاسة التي برعوا فيها. وإن ما يظنه البعض اليوم جهلاً أو محدودية ثقافة لدى ما نجده عند كبار السن، هو في الحقيقة ثقافة شفهية عظيمة وعميقة، هي امتداد أصيل لأسلافهم. فهم يمتلكون القدرة على تمييز قبيلة الشخص أو منبته بمجرد التقاط نبرة صوته أو مخارج حروفه، وهو ذكاء اجتماعي ولغوي صارم يسير على خطى الأوائل. إنهم حراس الهوية الذين لم تغيرهم المدنية، بل ظلوا متمسكين بتلك "الأذن" التي أمدّت المدوّنين، وحفظت لنا ما فات الكتب.
العربية
2
7
20
5K