Math.py
Wir müssen wissen , wir werden wissen
首頁
分類
歸檔
0%
Theme NexT works best with JavaScript enabled
課程筆記 Course
分類
2019
10-07
Regularization 方法 : Weight Decay , Early Stopping and Dropout
10-05
Chapter 3 -- Graph ( 1 )
10-05
Gradient Vanishing Problem --- 以 ReLU / Maxout 取代 Sigmoid actvation function
10-05
Batch Size
10-05
Why can we use Squre Error in Logistic Regression ?
10-05
Adagrad、RMSprop、Momentum and Adam -- 特殊的學習率調整方式
10-05
從統計學的角度 (Bias and Variance) 來看 Machine Learning Error
10-03
Chapter 2 -- Algorithm analysis
10-01
林軒田機器學習基石筆記 - 第八講
10-01
林軒田機器學習基石筆記 - 第七講
1
…
4
5
6