Mohammed Fahd Abrah

592 posts

Mohammed Fahd Abrah banner
Mohammed Fahd Abrah

Mohammed Fahd Abrah

@programmingoce

Data Scientist- AI Engineer - Machine Learning and Deep Learning Engineer | I run freeCodeCamp Arabic Accounts (Youtube- X- Facebook-Linkedin) @freeCodeCampAR

Malaysia Katılım Haziran 2025
29 Takip Edilen55 Takipçiler
Sabitlenmiş Tweet
Mohammed Fahd Abrah
Mohammed Fahd Abrah@programmingoce·
So, what does it take to complete 15 freeCodeCamp certs in 4 months while still in high school? In this guide, breaks down the structured fCC path he used across web dev, Python, data analysis, and machine learning. And he talks about how building projects, being consistent, and strengthening his fundamentals = real progress. freecodecamp.org/news/freecodec… #freeCodeCamp #programming #coding #Artificial_intelligence
English
0
0
3
141
Mohammed Fahd Abrah
Mohammed Fahd Abrah@programmingoce·
@alphaprime_x @freeCodeCamp it's useful to read the GPT1 paper Review to make the picture more clear. x.com/freeCodeCamp/s…
freeCodeCamp.org@freeCodeCamp

AI models have come a long way. And Before ChatGPT, there was GPT-1. Here, @programmingoce reviews the original “Improving Language Understanding by Generative Pre-Training” paper and explains why pretraining changed NLP forever. You’ll learn how unsupervised learning, transformers, and fine-tuning laid the foundation for modern LLMs. freecodecamp.org/news/ai-paper-…

English
1
0
2
10
ALPHA
ALPHA@alphaprime_x·
@freeCodeCamp @programmingoce I literally just learned what a variable is yesterday in Python and then I see posts like this 😂 The gap between Day 1 and understanding GPT-2 feels enormous right now. But I'm starting somewhere. Following this space closely 🐍
English
1
0
2
46
Mohammed Fahd Abrah retweetledi
freeCodeCamp.org
freeCodeCamp.org@freeCodeCamp·
GPT-2 changed AI research by showing that scale alone can unlock new capabilities. In this paper review, @programmingoce explains how unsupervised next-token prediction led to translation, summarization, and question answering behaviors. You'll learn about transformers, zero-shot learning, and why GPT-2 mattered historically. freecodecamp.org/news/ai-paper-…
freeCodeCamp.org tweet media
English
4
14
71
5.1K
Mohammed Fahd Abrah
Mohammed Fahd Abrah@programmingoce·
@laybitcoin1 @freeCodeCamp it's useful to read the GPT1 paper Review to make the picture more clear. x.com/freeCodeCamp/s…
freeCodeCamp.org@freeCodeCamp

AI models have come a long way. And Before ChatGPT, there was GPT-1. Here, @programmingoce reviews the original “Improving Language Understanding by Generative Pre-Training” paper and explains why pretraining changed NLP forever. You’ll learn how unsupervised learning, transformers, and fine-tuning laid the foundation for modern LLMs. freecodecamp.org/news/ai-paper-…

English
0
0
0
7
Layla CryptoWhiz
Layla CryptoWhiz@laybitcoin1·
@freeCodeCamp @programmingoce GPT-2 was the moment people realized scale alone can unlock behavior. Just predict the next token... and suddenly you get translation, QA, summarization.
English
1
0
2
38
Mohammed Fahd Abrah
Mohammed Fahd Abrah@programmingoce·
@SprintLoom @freeCodeCamp it's useful to read the GPT1 paper Review to make the picture more clear. x.com/freeCodeCamp/s…
freeCodeCamp.org@freeCodeCamp

AI models have come a long way. And Before ChatGPT, there was GPT-1. Here, @programmingoce reviews the original “Improving Language Understanding by Generative Pre-Training” paper and explains why pretraining changed NLP forever. You’ll learn how unsupervised learning, transformers, and fine-tuning laid the foundation for modern LLMs. freecodecamp.org/news/ai-paper-…

English
0
0
0
10
SprintLoom
SprintLoom@SprintLoom·
@freeCodeCamp @programmingoce The zero-shot translation from GPT-2 was so unexpected it made me question everything I thought about supervised learning.
English
1
0
2
30
Mohammed Fahd Abrah retweetledi
freeCodeCamp.org in Arabic
freeCodeCamp.org in Arabic@freeCodeCampAR·
ورقة GPT-2 العلمية لم تكن مجرد تحسين على GPT-1، بل كانت لحظة مفصلية غيّرت فهم العالم للنماذج اللغوية الكبيرة. اسم الورقة: “Language Models are Unsupervised Multitask Learners” الصادرة من شركة OpenAI عام 2019. الهدف الأساسي من الورقة كان اختبار فكرة جريئة جدًا: هل يمكن لنموذج لغوي ضخم، يتم تدريبه فقط على التنبؤ بالكلمة التالية، أن يتعلّم تنفيذ مهام متعددة بدون تدريب مخصص لكل مهمة؟ بدلًا من تدريب نموذج منفصل للترجمة أو التلخيص أو الإجابة عن الأسئلة، قامت الورقة ببناء نموذج واحد فقط يعتمد على: Decoder-Only Transformer ويتعلم من كمية هائلة من النصوص عبر التعلّم غير المراقب (Unsupervised Learning). النموذج تم تدريبه على بيانات WebText، وهي مجموعة ضخمة من صفحات الإنترنت عالية الجودة، مع توسيع حجم النموذج بشكل غير مسبوق وقتها إلى 1.5 مليار بارامتر. النتيجة كانت صادمة للمجتمع البحثي: GPT-2 أظهر قدرات قوية في: • توليد النصوص • التلخيص • الترجمة • الإجابة عن الأسئلة • إكمال الجمل • الاستدلال اللغوي وذلك بدون Fine-Tuning مخصص لمعظم المهام. الورقة أثبتت أن: “Scaling Language Models” يمكن أن يؤدي إلى ظهور قدرات جديدة (Emergent Abilities) لم تكن موجودة في النماذج الأصغر. كما قدّمت مفهومًا مهمًا جدًا لاحقًا في عالم الذكاء الاصطناعي: Zero-Shot Learning أي تنفيذ المهام مباشرة من خلال الـ Prompt فقط. ومن شدة قوة النموذج وقتها، لم تقم OpenAI بإصدار النسخة الكاملة مباشرة بسبب المخاوف المتعلقة بإساءة استخدام توليد النصوص. ورقة GPT-2 كانت بداية التحول الحقيقي من “نماذج متخصصة” إلى “نماذج عامة” قادرة على تعلّم مهام متعددة من اللغة نفسها. كل ما نراه اليوم في ChatGPT وGPT-4 والنماذج الحديثة… بدأ فعليًا من الأفكار التي أثبتتها هذه الورقة. رابط الورقة العلمية: cdn.openai.com/better-languag… #البحث_العلمي #الذكاء_الاصطناعي
العربية
0
2
6
194
Mohammed Fahd Abrah retweetledi
freeCodeCamp.org in Arabic
freeCodeCamp.org in Arabic@freeCodeCampAR·
قبل ظهور ChatGPT والنماذج الحديثة، كانت أغلب أنظمة الذكاء الاصطناعي تحتاج تدريبًا منفصلًا لكل مهمة. ثم جاءت ورقة GPT-2 الشهيرة: “Language Models are Unsupervised Multitask Learners” لتغيّر الفكرة بالكامل. في هذه المراجعة العلمية: مع المهندس محمد فهد @programmingoce يتم تبسيط واحدة من أهم أوراق الذكاء الاصطناعي الحديثة وشرح كيف بدأت النماذج اللغوية تُظهر قدرات مذهلة فقط من خلال تعلم توقع الكلمة التالية. المراجعة تغطي: الفكرة الأساسية وراء GPT-2. مفهوم Zero-Shot Learning. الفرق بين Fine-Tuning و Zero-Shot. كيف ساعد التدريب على بيانات ضخمة في ظهور قدرات جديدة. معمارية النموذج وطريقة عمله. كيف بدأ النموذج في: الترجمة التلخيص الإجابة على الأسئلة إكمال النصوص الفرق بين GPT-1 و GPT-2. أهم النتائج والتجارب التي قدمتها الورقة. لماذا كانت هذه الورقة خطوة محورية نحو ظهور LLMs الحديثة. الأجمل أن المراجعة تبسط المفاهيم المعقدة بطريقة عملية وسهلة الفهم دون الحاجة لقراءة الورقة الأصلية بالكامل. إذا كنت تريد فهم كيف بدأ عصر النماذج اللغوية الحديثة فعليًا، فهذه الورقة تعتبر واحدة من أهم المحطات في تاريخ الذكاء الاصطناعي. freecodecamp.org/news/ai-paper-… #البحث_العلمي #الذكاء_الإصطناعي
العربية
0
2
8
253
Mohammed Fahd Abrah
Mohammed Fahd Abrah@programmingoce·
Before ChatGPT and modern AI assistants became mainstream, most AI systems could only perform tasks they were specifically trained for. Then came the GPT-2 paper: “Language Models are Unsupervised Multitask Learners” A paper that fundamentally changed the direction of modern AI. In this AI paper review, I break down one of the most influential papers in the history of large language models and explain how GPT-2 showed that simply predicting the next word on massive internet text could lead to surprisingly powerful abilities. This review covers: The core idea behind GPT-2. How Zero-Shot Learning works. The difference between Fine-Tuning and Zero-Shot Learning. Why training on massive web text changed everything. GPT-2’s architecture and methodology. How the model started performing tasks like: Translation Summarization Question Answering Text Completion The key differences between GPT-1 and GPT-2. Important experiments and findings from the paper. Why this paper became a major milestone toward modern LLMs. The goal of this review is to simplify the paper and make its ideas practical and easier to understand without needing to read the full research paper yourself. If you want to understand where the modern era of generative AI truly began, GPT-2 is one of the most important papers to study. freecodecamp.org/news/ai-paper-… #AI #MachineLearning #DeepLearning #LLM #GPT2 #ArtificialIntelligence #NLP #Transformers #GenerativeAI #OpenAI #ResearchPaper #AIPapers #DataScience #NeuralNetworks #TechEducation
English
0
0
0
28
Mohammed Fahd Abrah retweetledi
freeCodeCamp.org in Arabic
freeCodeCamp.org in Arabic@freeCodeCampAR·
ورقة علمية غيّرت عالم الذكاء الاصطناعي بالكامل: “Attention Is All You Need” نُشرت عام 2017 بواسطة باحثي Google Brain و Google Research. المؤلفون: Ashish Vaswani Noam Shazeer Niki Parmar Jakob Uszkoreit Llion Jones Aidan N. Gomez Łukasz Kaiser Illia Polosukhin الهدف من الورقة: كان الهدف الأساسي هو التخلص من الاعتماد على معماريات RNNs و LSTMs في معالجة اللغة الطبيعية، وبناء نموذج يعتمد بالكامل على آلية Attention لمعالجة التسلسل بشكل أسرع وأكثر كفاءة. ماذا قدمت الورقة؟ تقديم معمارية الـ Transformer لأول مرة. استخدام Self-Attention لفهم العلاقات بين الكلمات داخل الجملة. تحسين القدرة على معالجة النصوص الطويلة. تسريع التدريب بشكل ضخم عبر المعالجة المتوازية Parallelization. تقليل مشاكل النسيان الموجودة في RNNs. أهم الإنجازات التي حققتها: أصبحت الـ Transformers الأساس الذي بُنيت عليه نماذج مثل: GPT BERT Gemini Claude T5 Llama غيّرت مستقبل NLP بالكامل. امتدت تأثيراتها إلى Computer Vision و Audio و Multimodal AI. أصبحت واحدة من أكثر الأوراق العلمية تأثيرًا واستشهادًا في تاريخ الذكاء الاصطناعي الحديث. مهدت الطريق لظهور عصر الـ LLMs والذكاء الاصطناعي التوليدي. اليوم، معظم أنظمة الذكاء الاصطناعي الحديثة التي نستخدمها يوميًا تعود جذورها إلى هذه الورقة. ورقة واحدة فقط… لكنها أعادت تشكيل المجال بالكامل. #البحث_العلمي #أوراق_علمية #الذكاء_الاصطناعي
Català
0
1
5
226
Mohammed Fahd Abrah retweetledi
freeCodeCamp.org in Arabic
freeCodeCamp.org in Arabic@freeCodeCampAR·
نماذج Vision Transformers غيّرت عالم Computer Vision بالكامل، وأصبحت تنافس بل وتتفوّق أحيانًا على الشبكات التقليدية مثل CNNs. في هذا الكورس العملي من freeCodeCamp و اعداد محمد فهد العبره @programmingoce ستتعلم كيف تبني نموذج ViT كامل من الصفر باستخدام PyTorch. الكورس يغطي: فهم فكرة Vision Transformers وكيف تختلف عن CNNs. تحويل الصور إلى Patches واستخدام Patch Embedding. بناء Transformer Encoder خطوة بخطوة. تجهيز Dataset واستخدام CIFAR-10 للتدريب. إنشاء DataLoaders وتنظيم Pipeline التدريب. بناء نموذج ViT كامل من الصفر. تدريب النموذج وتحليل الأداء. استخدام Loss Functions و Optimizers المناسبة. تنفيذ Fine-Tuning وتحسين النتائج باستخدام Data Augmentation. مقارنة الأداء قبل وبعد التحسين. عرض Predictions وتحليل نتائج النموذج بصريًا. الأجمل أن الكورس لا يكتفي باستخدام مكتبات جاهزة، بل يجعلك تفهم فعليًا كيف تعمل Vision Transformers داخليًا. إذا كنت مهتمًا بـ Deep Learning أو Computer Vision أو تريد فهم المعماريات الحديثة للذكاء الاصطناعي، فهذا الكورس يعتبر نقطة قوية جدًا للانطلاق. freecodecamp.org/news/build-you… #الرؤية_الحاسوبية #نماذج_المحولات
العربية
0
1
11
298
Mohammed Fahd Abrah retweetledi
freeCodeCamp.org in Arabic
freeCodeCamp.org in Arabic@freeCodeCampAR·
الورقة العلمية الشهيرة في عالم الرؤية الحاسوبية: Learning Transferable Architectures for Scalable Image Recognition By Barret Zoph, Vijay Vasudevan, Jonathon Shlens, and Quoc V. Le هذه الورقة العلمية كانت نقطة تحول حقيقية في عالم الرؤية الحاسوبية، لأنها قدمت فكرة Neural Architecture Search (NAS). بدل أن يقوم الباحثون بتصميم معماريات الشبكات العصبية يدويًا، اقترحت الورقة جعل الذكاء الاصطناعي نفسه يتعلم كيفية تصميم أفضل Architecture تلقائيًا. الورقة قدمت نموذج NASNet، والذي استخدم Reinforcement Learning للبحث عن أفضل الخلايا العصبية القابلة للنقل والتوسيع على datasets مختلفة مثل CIFAR-10 وImageNet. أهم ما قدمته الورقة: • أتمتة تصميم الشبكات العصبية • تحسين أداء نماذج تصنيف الصور • تقديم مفهوم Transferable Cells • فتح الباب أمام مجال AutoML وNAS بالكامل هذه الورقة غيّرت طريقة بناء نماذج الرؤية الحاسوبية، ونقلت المجال من التصميم اليدوي إلى التصميم الآلي المدعوم بالذكاء الاصطناعي. #الرؤية_الحاسوبية #البحث_العلمي
0
1
7
324
Mohammed Fahd Abrah retweetledi
freeCodeCamp.org in Arabic
freeCodeCamp.org in Arabic@freeCodeCampAR·
EfficientNet: Rethinking Model Scaling for Convolutional Neural Networks By Mingxing Tan & Quoc V. Le EfficientNet: لم تكن مجرد تحسين بسيط في نماذج الرؤية الحاسوبية، بل أعادت التفكير بالكامل في طريقة توسيع الشبكات العصبية. قبلها، كان الباحثون يكبرون النماذج بشكل غير متوازن: زيادة العمق، أو العرض، أو دقة الصور فقط. لكن ذلك كان يستهلك موارد ضخمة دون أفضل كفاءة ممكنة. الورقة قدمت مفهوم Compound Scaling، والذي يعتمد على موازنة: • عمق النموذج • عرض الشبكة • دقة الصورة بطريقة مدروسة رياضيًا. النتيجة كانت نماذج تحقق: دقة أعلى، كفاءة أفضل، وعدد بارامترات أقل مع استهلاك حوسبي أقل. ولهذا أصبحت EfficientNet من أكثر الأوراق تأثيرًا في عالم الرؤية الحاسوبية، خاصة في تطبيقات التصنيف، الأجهزة الذكية، وEdge AI. ورقة غيّرت مفهوم Scaling بالكامل في عالم CNNs. #الرؤية_الحاسوبية #البحث_العلمي
0
1
2
163
Mohammed Fahd Abrah retweetledi
freeCodeCamp.org
freeCodeCamp.org@freeCodeCamp·
AI models have come a long way. And Before ChatGPT, there was GPT-1. Here, @programmingoce reviews the original “Improving Language Understanding by Generative Pre-Training” paper and explains why pretraining changed NLP forever. You’ll learn how unsupervised learning, transformers, and fine-tuning laid the foundation for modern LLMs. freecodecamp.org/news/ai-paper-…
freeCodeCamp.org tweet media
English
1
15
104
6.3K
Mohammed Fahd Abrah retweetledi
freeCodeCamp.org in Arabic
freeCodeCamp.org in Arabic@freeCodeCampAR·
من مشاهدة التطبيقات الكبيرة… إلى بناء نسخة كاملة منها بنفسك. هذا ما يقدمه كورس Google Calendar Clone، الذي نشره freeCodeCamp، و من اعداد المهندس محمد فهد العبرة @programmingoce حيث تتعلم بناء تطبيق جدولة متكامل باستخدام PHP وMySQL وJavaScript بدون أي Frameworks أو مكتبات جاهزة. الكورس يشرح كيف تبني واجهة Calendar ديناميكية، وتضيف CRUD كامل للحجوزات، وتتعامل مع تعارض المواعيد، مع تحديثات فورية وتجربة استخدام احترافية. الفكرة ليست فقط بناء تطبيق، بل فهم كيف تعمل تطبيقات الويب الحقيقية خلف الكواليس: من قاعدة البيانات وحتى الواجهة الأمامية. الخلاصة أن أفضل طريقة لتتعلم البرمجة ليست مشاهدة الأدوات فقط… بل بناء شيء حقيقي بيديك من الصفر. freecodecamp.org/news/build-a-g… #برمجة #تطبيقات #تقنية
العربية
0
1
16
459
Mohammed Fahd Abrah retweetledi
freeCodeCamp.org in Arabic
freeCodeCamp.org in Arabic@freeCodeCampAR·
من مجرد Chatbots… إلى الورقة البحثية التي بدأت ثورة نماذج اللغة الحديثة. هذا ما يشرحه Mohammed Fahd Abrah @programmingoce في مراجعته لورقة Improving Language Understanding Generative Pre-Training، التي قدمت أول نموذج GPT-1 من OpenAI المراجعة تشرح الفكرة الأساسية خلف الـ Generative Pre-Training، وكيف غيّرت طريقة تدريب نماذج اللغة عبر التعلم من كميات ضخمة من النصوص قبل التخصيص لمهام محددة. كما توضح الفرق بين GPT وBERT والـ Transformer Architecture، وتشرح لماذا كانت هذه الورقة نقطة تحول في عالم الذكاء الاصطناعي الحديث. الخلاصة أن النماذج التي نستخدمها اليوم لم تظهر فجأة… بل بدأت بفكرة بحثية غيّرت طريقة فهم الآلات للغة البشرية. freecodecamp.org/news/ai-paper-… #البحث_العلمي #الذكاء_الاصطناعي
0
2
3
215
Mohammed Fahd Abrah retweetledi
freeCodeCamp.org in Arabic
freeCodeCamp.org in Arabic@freeCodeCampAR·
من استخدام نماذج الرؤية الحاسوبية… إلى بناءها وفهمها من الصفر. هذا ما يقدمه كورس VGG، الذي نشره freeCodeCamp، من تطوير Mohammed Al Abrah. @programmingoce الكورس لا يشرح فقط كيف تبني VGG باستخدام PyTorch، بل يشرح الفلسفة الرياضية والمعمارية خلف النموذج، وكيف استطاعت فكرة بسيطة تعتمد على فلاتر 3x3 أن تغيّر عالم Computer Vision بالكامل. ستتعلم بناء النموذج خطوة بخطوة، التعامل مع البيانات، التدريب، تحسين الـ Hyperparameters، وتحليل النتائج باستخدام أدوات Visualization لفهم ما يحدث داخل الشبكة العصبية. الخلاصة أن احتراف الذكاء الاصطناعي لا يبدأ باستخدام النماذج الجاهزة… بل بفهم كيف وُلدت هذه النماذج من الأساس. freecodecamp.org/news/implement… #الرؤية_الحاسوبية #الذكاء_الاصطناعي
العربية
0
1
7
279
Mohammed Fahd Abrah
Mohammed Fahd Abrah@programmingoce·
Most people use Large Language Models. Very few truly understand how they work beneath the surface. That’s why Hands-On Large Language Models by Jay Alammar and Maarten Grootendorst stands out as one of the most important technical books in modern AI education. This book doesn’t just explain Transformers and embeddings; it builds a deep engineering intuition for attention mechanisms, semantic search, RAG systems, vector representations, and production-level generative AI pipelines. What impressed me most is the balance between visual clarity and technical depth. Complex concepts become understandable without sacrificing rigor. In this video, I break down some of the key ideas and why this book has become an essential resource for anyone serious about LLM engineering and modern NLP systems. Huge respect to Jay Alammar @JayAlammar and Maarten Grootendorst @MaartenGr for creating a resource that genuinely advances AI learning for developers and researchers worldwide. What do you think is the most important skill for the next generation of AI engineers: understanding model architecture, retrieval systems, or fine-tuning workflows? 👇 #AI #LLM #LargeLanguageModels #GenerativeAI #MachineLearning #DeepLearning #NLP #Transformers #RAG #VectorDatabases #Embeddings #HuggingFace #PyTorch #AIEngineering #ArtificialIntelligence #MLOps #LLMEngineering #TechBooks #DataScience #OpenSource
English
0
1
2
103
Mohammed Fahd Abrah
Mohammed Fahd Abrah@programmingoce·
Before ChatGPT, before modern AI assistants, there was a research paper that changed everything. “Improving Language Understanding by Generative Pre-Training (GPT-1)” introduced a simple but revolutionary idea: instead of training models separately for every task, why not first train a model on massive amounts of text and then fine-tune it for specific tasks later? In this review, I break down the paper in a practical and easy-to-understand way, covering the goals, architecture, methodology, and why GPT became one of the most influential ideas in modern AI. The review also explains the differences between Transformers, GPT, and BERT, while highlighting the key techniques and limitations that shaped the future of large language models. If you use AI tools today, understanding GPT-1 means understanding where the current AI revolution truly began. freecodecamp.org/news/ai-paper-… #AI #Scientific_research
English
0
2
2
88
Mohammed Fahd Abrah retweetledi
freeCodeCamp.org in Arabic
freeCodeCamp.org in Arabic@freeCodeCampAR·
هل تساءلت يومًا كيف “يفكّر” نموذج GPT من الداخل؟ في هذا الفيديو نأخذك في رحلة عميقة داخل طبقة Multi-Head Masked Self-Attention، لكن هذه المرة ليس فقط بالكود، بل أيضًا من خلال التصوّر البصري. نبدأ بتفكيك دالة الـ forward خطوة بخطوة: كيف تتحول البيانات إلى Q و K و V، كيف تُحسب درجات الانتباه، وكيف يمنع النموذج نفسه من رؤية المستقبل باستخدام Masking.ثم ننتقل إلى مرحلة متقدمة نحول فيها هذه العمليات إلى خرائط حرارية (Heatmaps)، لنشاهد فعليًا: كيف تنظر كل كلمة إلى الكلمات الأخرى، أين يتركّز الانتباه داخل الجملة، وكيف تختلف طريقة الفهم من Head إلى آخر. هذا الفيديو ليس شرحًا نظريًا فقط، بل يمنحك فهمًا عمليًا وبصريًا لما يحدث داخل النماذج التي نستخدمها يوميًا.إذا كنت تريد إتقان Transformers بشكل حقيقي، فهذا الفيديو يمثل خطوة أساسية في رحلتك. youtu.be/qFTsAHP63us?si… #خوارزمية_المحولات #النماذج_التوليدية
YouTube video
YouTube
freeCodeCamp.org in Arabic tweet media
العربية
0
2
13
344
Mohammed Fahd Abrah retweetledi
freeCodeCamp.org in Arabic
freeCodeCamp.org in Arabic@freeCodeCampAR·
من كتابة كود… إلى بناء الأداة التي تكتب بها الكود. هذا ما يقدمه كورس “Code Your Own Code Editor” الذي نشره freeCodeCamp، من تطوير Mohammed Al Abrah. @programmingoce الكورس يأخذك لبناء محرر أكواد داخل المتصفح من صفحة HTML واحدة، مع Tabs لـ HTML وCSS وJavaScript، وميزة Live Preview لمشاهدة النتائج مباشرة. ستضيف ميزات حقيقية مثل اختصارات الكيبورد، التحقق من الكود، الحفظ باستخدام local storage، وتحسينات الوصول (Accessibility). الخلاصة أن أفضل طريقة لتفهم الأدوات… هي أن تبنيها بنفسك. freecodecamp.org/news/code-your… #تطوير_محرر_أكواد #برمجة
العربية
0
3
16
589
Mohammed Fahd Abrah
Mohammed Fahd Abrah@programmingoce·
Neural Machine Translation takes a whole sentence and processes (ie translates) it using one integrated model. And in this course, you'll learn all about the history and evolution of NMT via hands-on PyTorch replications of key papers. You'll learn about phrase representation, attention, transformers, and lots more. freecodecamp.org/news/building-… #Transformers #Gpt #Chatgpt #Neural_Machine_Translation #Neural_Network #Artificial_intelligence
English
0
0
0
62