- عنوان کتاب: Deep Learning Basics (lecture notes)
- نویسنده: Romain Tavenard
- حوزه: یادگیری عمیق
- سال انتشار: 2023
- تعداد صفحه: 49
- زبان اصلی: انگلیسی
- نوع فایل: pdf
- حجم فایل: 1.08 مگابایت
1 مقدمه
1.1 اولین مدل: پرسپترون. . . . . . … . . . . 3
1.2 بهینه سازی . . . . . . . . . . . . . .. . . . . 4
1.3 جمع بندی . . . . . . . . . . . . . . . . . . . . 8
2 پرسپترون چند لایه ………………………..9
2.1 انباشتن لایه ها برای بیان بهتر. . . . . . 9
2.2 تصمیم گیری در مورد معماری MLP. . . . . . . . 11
2.3 توابع فعال سازی . . . . . . . . . . . . . . . 12
2.4 اعلام MLP در کراس. . . . . . . . . . . 13
3 ضرر ………………………………………….17
3.1 میانگین مربعات خطا. . . . . . . . . . . . . . . 17
3.2 ضرر لجستیک. . . . . . . . . . . . . . . . . . . . 18
4 بهینه سازی …………………………………….19
4.1 نزول گرادیان تصادفی (SGD). . . . . . . 20
4.2 یادداشتی در مورد آدم. . . . . . . . . . . . . . . . . 21
4.3 نفرین عمق . . . . . . . . . . . . . . . . 22
4.4 پیچیدن چیزها در کراس. . . . . . . . . . 23
4.5 پیش پردازش داده ها . . . . . . . . . . . . . . . 24
5 منظم سازی …………………………………..27
5.1 توقف زودهنگام . . . . . . . . . . . . . . . . . 27
5.2 جریمه باخت. . . . . . . . . . . . . . . . . 29
5.3 ترک تحصیل . . . . . . . . . . . . . . . . . . . . 30
6 شبکه عصبی کانولوشنال 33
6.1 ConvNets برای سری های زمانی. . . . . . . . . . . . . 33
6.2 شبکه های عصبی کانولوشن برای تصاویر. . . . 34
7 شبکه عصبی تکراری ……………………………..41
7.1 RNN های “وانیلی”. . . . . . . . . . . . . . . . . . 42
7.2 حافظه کوتاه مدت. . . . . . . . . . . . 43
7.3 واحد بازگشتی دردار. . . . . . . . . . . . . . . 44
7.4 نتیجه گیری . . . . . . . . . . . . . . . . . . . 44
1 Introduction
1.1 A first model: the Perceptron . . . . . . . . . . . 3
1.2 Optimization . . . . . . . . . . . . . . . . . . . 4
1.3 Wrap-up . . . . . . . . . . . . . . . . . . . . . 8
2 Multi Layer Perceptrons………….. 9
2.1 Stacking layers for better expressivity . . . . . . 9
2.2 Deciding on an MLP architecture . . . . . . . . 11
2.3 Activation functions . . . . . . . . . . . . . . . . 12
2.4 Declaring an MLP in keras . . . . . . . . . . . 13
3 Losses……………….. 17
3.1 Mean Squared Error . . . . . . . . . . . . . . . 17
3.2 Logistic loss . . . . . . . . . . . . . . . . . . . . 18
4 Optimization…………………. 19
4.1 Stochastic Gradient Descent (SGD) . . . . . . . 20
4.2 A note on Adam . . . . . . . . . . . . . . . . . 21
4.3 The curse of depth . . . . . . . . . . . . . . . . 22
4.4 Wrapping things up in keras . . . . . . . . . . 23
4.5 Data preprocessing . . . . . . . . . . . . . . . . 24
5 Regularization………………….. 27
5.1 Early Stopping . . . . . . . . . . . . . . . . . . 27
5.2 Loss penalization . . . . . . . . . . . . . . . . . 29
5.3 DropOut . . . . . . . . . . . . . . . . . . . . . 30
6 Convolutional Neural Networks 33
6.1 ConvNets for time series . . . . . . . . . . . . . 33
6.2 Convolutional neural networks for images . . . . 34
7 Recurrent Neural Networks……………. 41
7.1 “Vanilla” RNNs . . . . . . . . . . . . . . . . . . 42
7.2 Long Short-Term Memory . . . . . . . . . . . . 43
7.3 Gated Recurrent Unit . . . . . . . . . . . . . . . 44
7.4 Conclusion . . . . . . . . . . . . . . . . . . . . 44
این کتاب را میتوانید از لینک زیر بصورت رایگان دانلود کنید:
Download: Deep Learning Basics (lecture notes)
نظرات کاربران