如何获得每次on_train_batch_begin
更新的学习率值
lr_decayed_fn = tf.keras.experimental.CosineDecay(initial_lr, decay_steps)
model.compile(optimizer=tf.keras.optimizers.SGD(learning_rate=lr_decayed_fn))
我试过这样做
def on_train_batch_begin (self, batch, logs = None):
lr = K.get_value(self.model.optimizer.lr)
但是我得到了<tensorflow.python.keras.optimizer_v2.learning_rate_schedule.CosineDecay object at 0x7f ...>
将函数设置为学习速率或对象子类化} 属性获得当前的培训步骤
LearningRateScheduler
时,需要使用当前训练步骤调用该函数(或可调用函数),以获得学习速率。您可以使用优化器的^{相关问题 更多 >
编程相关推荐