- 1 135
- 2 241 129
Ahmed Fathi
Приєднався 23 січ 2011
This is a computer engineering related channel in Arabic where I explain various topics
Transformers-12 Putting it all together - Part B
Transformers-12 Putting it all together - Part B
Переглядів: 1 662
Відео
Transformers-11 Putting it all together - Part-A
Переглядів 1,3 тис.2 роки тому
Transformers-11 Putting it all together - Part-A
Transformers-10 Matrix Form Of Masked Attention
Переглядів 7632 роки тому
Transformers-10 Matrix Form Of Masked Attention
Transfrmers-9 : Teacher Forcing and Decoder self-attention during training
Переглядів 8592 роки тому
Transfrmers-9 : Teacher Forcing and Decoder self-attention during training
Transfrmers-8 : Decoder self-attention - Inference
Переглядів 6462 роки тому
Transfrmers-8 : Decoder self-attention - Inference
Transfrmers-7 - Matrix form of query-key-value attention
Переглядів 9122 роки тому
Transfrmers-7 - Matrix form of query-key-value attention
Transfrmers-6: Encoder-Encoder Self-Attention
Переглядів 1,1 тис.2 роки тому
Transfrmers-6: Encoder-Encoder Self-Attention
Transformers-5 : Multi Headed Attention
Переглядів 9982 роки тому
Transformers-5 : Multi Headed Attention
Transformers-2 Decoder-Encoder-Attention Part A
Переглядів 2,7 тис.2 роки тому
Transformers-2 Decoder-Encoder-Attention Part A
Transformers-3 Decoder-Encoder-Attention Part B
Переглядів 1,9 тис.2 роки тому
Transformers-3 Decoder-Encoder-Attention Part B
Transformers-4 The Query-Key-Value Attention
Переглядів 1,9 тис.2 роки тому
Transformers-4 The Query-Key-Value Attention
SQL Sessions - Part 2 SELECT FROM WHERE & Subqueries
Переглядів 1,2 тис.3 роки тому
Second Session of our live sessions
SQL - Session - 1 - Part - 1 - Basic Introduction
Переглядів 1,3 тис.3 роки тому
SQL - Session - 1 - Part - 1 - Basic Introduction
Udemy [English] Perspective Projection Code In glMatrix
Переглядів 6953 роки тому
Udemy [English] Perspective Projection Code In glMatrix
Udemy [English] Perspective Projection Matrix Derivation II
Переглядів 4423 роки тому
Udemy [English] Perspective Projection Matrix Derivation II
word2vec embeddings P4 - skip-gram - negative sampling of context words
Переглядів 1,2 тис.4 роки тому
word2vec embeddings P4 - skip-gram - negative sampling of context words
word2vec embeddings P3 - skip-gram - sub-sampling frequent words
Переглядів 4504 роки тому
word2vec embeddings P3 - skip-gram - sub-sampling frequent words
Generating Embeddings in a supervised way
Переглядів 5254 роки тому
Generating Embeddings in a supervised way
word2vec embeddings P1 skip-gram algorithm P1
Переглядів 1,1 тис.4 роки тому
word2vec embeddings P1 skip-gram algorithm P1
word2vec embeddings P5 - CBOW vs skip-gram
Переглядів 1 тис.4 роки тому
word2vec embeddings P5 - CBOW vs skip-gram
word2vec embeddings P2 skip-gram algorithm P2
Переглядів 5104 роки тому
word2vec embeddings P2 skip-gram algorithm P2
171-[ENG] The Pseudo Inverse Intro and intuition II
Переглядів 904 роки тому
171-[ENG] The Pseudo Inverse Intro and intuition II
173-[ENG] The Pseudo Inverse Derivation I
Переглядів 1004 роки тому
173-[ENG] The Pseudo Inverse Derivation I
178 -[ENG] The pseudo inverse and infinite number of least squares solutions
Переглядів 2704 роки тому
178 -[ENG] The pseudo inverse and infinite number of least squares solutions
174-[ENG] The Pseudo Inverse Derivation II
Переглядів 1804 роки тому
174-[ENG] The Pseudo Inverse Derivation II
176-[ENG] Another Derivation for the pseudo Inverse of a matrix
Переглядів 3484 роки тому
176-[ENG] Another Derivation for the pseudo Inverse of a matrix
169-[ENG] SVD The relation between PCA and SVD
Переглядів 9334 роки тому
169-[ENG] SVD The relation between PCA and SVD
هل فيه وسيلة للتواصل مع حضرتك
TOP <3
يا عالم الحاقونا بصوت سمبا😂😂😂😂 الامتحان بعد أربع ساعات من الان😂😂 بس عاااش
Great!
شكرا على مجهودك و تعبك ربنا يجزيك كل خير
Charles haruna1123 Harlan street Laredo Texas 78045
is S a matrix in the series of (SI-A) inverse?
كن سببا في كثرة الصلاة على النبي
بارك الله فيك شكرا اااا كثير 👌❤
perfect explanation <3
شرح ممتاز عاشت ايدك
هو مين ال query ومين ال key?
there are no allah wallah
very bad accent else good video
جزاك الله خيرا
جزاك الله خيرا
مشكور بس اضبط مصطلحاتك عشان هادي update مش activation
السلام عليكم ممكن اتواصل معك
مثال راائع هههههههههههه
thanks😊
Perfect. Thank you!
فكرة تشبيه الفلترز ب الاتنشنز جميلة بصراحة
واو عالشرح الواضح ماشاءالله الله يكرمك جلست طول الليل ادور شرح على هالفكرة كلها مقاطع أجانب بس لما فتحت مقطعك فهمت الله ينور عليك
الحمد لله على نعمة Intellij IDEA
سلسله عظيمة جدا, جزاك الله خيرا
Vision transformer يا ريت تشرحه
سلام عليكم هي دوت دوت جمب الparameter بتعمل ايه ؟وظيفتها ايه ؟؟
????
Your the best of ALL presenters in UA-cam and World! May Allah bless you.
ربنا يبارك لك تسلم يا هندسة ❤
shokrn awi
i can't understand the difference between Attention layer and Fully connected layer
شكرا شرح بجد رائع
شكرا شكرا شكرا
شكرا جزيلا على المجهود الطيب.
جزاك الله خيرا ونفع بك
جامد ❤❤❤❤
bro...
ممكن شرح اكتر لو تسمح اريد معرفه عمل الترانس فورمل من البديه لنهايه
I think each input channel is convolved with all the weight channels (many to many) , the results of each filter channel with all the input channels are then summed together to form one output feature map per filter channel.
شكرا ليك يا بشمهندس فتحي ، الفديوا يعبر عن حال كثير من الأشياء الان Ehab Medhat
❤❤❤❤❤
انا حاليا كنت في رابعة بدءت اسمعك لما كنت في اولي و حقيقي كل مادة زنقت معاياو مش فاهمها كنت قلايك موجود فشكرا جدا لحضرتك ❤❤ و ممكن ايميل LinkedIn بتاعك
كلام بلدي هههه انت عسل والله
شكرا جزيلا
شكرا جزيلا
في زنة مزعجة بالصوت لكن الشرح رااائع
الله يسعدك
شكرا يا شيخ انقذتني والله <3
Thank you Ahmed, clear elaboration
في الدقيقه من ١٦ ال $s2 مفروض تكون مكان $s1 او $s4