تابع فعالیت و معماری شبکه های عصبی - فصل سوم - یادگیری عمیق ( پاییز 1397 )

1,752
محمدعلی کیوان راد
محمدعلی کیوان راد 230 دنبال‌ کننده

بسم الله الرحمن الرحیم درس یادگیری عمیق (پاییز 1397) Deep Learning (Fall 2018) مدرس: محمدعلی کیوان راد لینک درس: http://ceit.aut.ac.ir/~keyvanrad/DL.html اسلایدهای درس و مراجع آن در سایت درس قابل مشاهده است. در این جلسه موارد زیر مطرح شده است: Perceptron - Stochastic Gradient Descent - Backpropagation - Activation Functions- Sigmoid - Tanh - ReLU - Leaky ReLU - ELU, Maxout

StreetFrisbee

StreetFrisbee

6 ماه پیش
باسلام و تشکر از شما یه سوالی که داشتم در دقیقه 38:57 فرمودید که اگه یه داده نویزی داشته باشیم بیایم تو ناحیه منفی نمیزاره که اون نویز تاثیر زیادی بزاره حالا سوال من اینجاست که دیتای نویز همیشه تو قسمت منفی قرار میگیره یا امکانش هست که در قسمت مثبت هم قرار بگیره ؟
محمدعلی کیوان راد
محمدعلی کیوان راد با سلام بله می تواند در ناحیه مثبت هم قرار بگیرد اما اگر بخواهیم در ناحیه مثبت هم saturation داشته باشیم‌، به همان مدل شبیه سیگموئید یا tanh خواهیم رسید که مشکلات آن در اسلایدهای قبل بررسی گردید. لذا این مدل مزایای نسبی از هر دو روش را خواهد داشت.