Optimizer
為什麼需要 Optimizer?
常見 Optimizer 演算法
1. Gradient Descent(梯度下降法)
2. Stochastic Gradient Descent(SGD,隨機梯度下降)
3. Momentum(動量法)
4. RMSProp(Root Mean Square Propagation)
5. Adam(Adaptive Moment Estimation)
重要參數
實作範例(TensorFlow)
Last updated