如何在 TF2 中更改 Adam 的学习率? [英] How to change a learning rate for Adam in TF2?
本文介绍了如何在 TF2 中更改 Adam 的学习率?的处理方法,对大家解决问题具有一定的参考价值,需要的朋友们下面随着小编来一起学习吧!
问题描述
如何在 TF2 中进行学习的同时更改 Adam 优化器的学习率?有一些答案浮出水面,但适用于 TF1,例如使用 feed_dict.
How to change the learning rate of Adam optimizer, while learning is progressing in TF2? There some answers floating around, but applicable to TF1, e.g. using feed_dict.
推荐答案
如果您使用自定义训练循环(而不是 keras.fit()
),您可以简单地执行以下操作:
If you are using custom training loop (instead of keras.fit()
), you can simply do:
new_learning_rate = 0.01
my_optimizer.lr.assign(new_learning_rate)
这篇关于如何在 TF2 中更改 Adam 的学习率?的文章就介绍到这了,希望我们推荐的答案对大家有所帮助,也希望大家多多支持IT屋!
查看全文