我有下面的优化器,它最初是用TensorFlow 1.X编写的
optimizer = tf.train.AdamOptimizer(AdamOptimizer()
optimizer = tf.contrib.opt.MovingAverageOptimizer(optimizer, average_decay=moving_average_decay)
但现在我不得不使用Tensorflow 2.2,我尝试迁移所有内容,以便它支持v1的所有功能。 我已设法“修复”AdamOptimizer:
optimizer = tf.compat.v1.train.AdamOptimizer()
但是我找不到MovingAverage()的任何实现。有什么想法吗
目前没有回答
相关问题 更多 >
编程相关推荐