标签:参数 csdn博客 随机梯度 优化器 一个 top pytho 学习 帮助
# 一般的梯度下降算法
Optimizertf.train.GradientDescentoptimizer(learning_rate,use_locking=False,name=‘Gradientdescent‘)
# 创建Adadelta优化器
tf.train.AdadeltaOptimizer(learning_rate=0.001,rho=0.95,epsilon=1e-08,use_locking=False,name=‘Adadelta‘)
# 创建Adagrad优化器
tf.train.AdagradOptimizer(learning_rate,initial_accumulator_value=0.1,use_locking=False,name=‘Adagrad‘)
# 创建momentum优化器momentum:动量,一个Tensor或者浮点值
tf.train.MomentumOptimizer(learning_rate,momentum,use_locking=False,name=‘Momentum‘,use_nesterov=False)
# 创建Adam优化器
tf.train.AdamOptimizer(learning_rate=0.001,beta1=0.9,beta2=0.999,epsilon=1e-08,use_locking=False,name=‘Adam‘)
# 创建FTRL算法优化器
tf.train.FtrlOptimizer(learning_rate,learning_rate_power=-0.5,initial_accumulator_value=0.1,l1_regularization_strength=0.0,l2_regularization_strength=0.0,use_locking=False,name=‘Ftrl‘)
# 创建RMSProp算法优化器
tf.train.RMSPropOptimizer(learning_rate,decay=0.9,momentum=0.0,epsilon=1e-10,use_locking=False,name=‘RMSProp‘)
标签:参数 csdn博客 随机梯度 优化器 一个 top pytho 学习 帮助
原文地址:https://www.cnblogs.com/Mrzhang3389/p/9903881.html