标签:call 技术 为知笔记 epo fit div uri com alt
随着学习的进行,深度学习的学习速率逐步下降 为什么比 固定的学习速率 得到的结果更加准确?learning_rate_reduction = ReduceLROnPlateau(monitor=‘val_acc‘, patience=3, verbose=1, factor=0.5, min_lr=0.00001)
#并且作为callbacks进入generator,开始训练
history = model.fit_generator(datagen.flow(X_train,Y_train, batch_size=batch_size),
epochs = epochs, validation_data = (X_val,Y_val),
verbose = 2, steps_per_epoch=X_train.shape[0] // batch_size
, callbacks=[learning_rate_reduction])
keras.callbacks.ReduceLROnPlateau(monitor=‘val_loss‘, factor=0.1, patience=10, verbose=0, mode=‘auto‘, epsilon=0.0001, cooldown=0, min_lr=0)
当评价指标不在提升时,减少学习率。当学习停滞时,减少2倍或10倍的学习率常常能获得较好的效果。该回调函数检测指标的情况,如果在patience
个epoch中看不到模型性能提升,则减少学习率
lr = lr*factor
的形式被减少min
模式下,如果检测值触发学习率减少。在max
模式下,当检测值不再上升则触发学习率减少。标签:call 技术 为知笔记 epo fit div uri com alt
原文地址:https://www.cnblogs.com/jsxyhelu/p/9251101.html