【发布时间】:2016-11-10 13:55:54
【问题描述】:
我一直在一台配备单个 GPU(GeForce GTX 980 Ti,6GB)的普通机器上训练 Inception V3。最大批量大小似乎在 40 左右。
我使用了inception_train.py 文件中指定的默认学习率设置:initial_learning_rate = 0.1、num_epochs_per_decay = 30 和 learning_rate_decay_factor = 0.16。经过几周的训练,我能够达到的最佳准确度如下(大约 500K-1M 次迭代):
2016-06-06 12:07:52.245005: precision @ 1 = 0.5767 recall @ 5 = 0.8143 [50016 examples]
2016-06-09 22:35:10.118852: precision @ 1 = 0.5957 recall @ 5 = 0.8294 [50016 examples]
2016-06-14 15:30:59.532629: precision @ 1 = 0.6112 recall @ 5 = 0.8396 [50016 examples]
2016-06-20 13:57:14.025797: precision @ 1 = 0.6136 recall @ 5 = 0.8423 [50016 examples]
我尝试在培训课程结束时调整设置,但看不到准确性有任何改进。
根据本论坛的其他帖子,我已经从头开始了一个新的培训课程,num_epochs_per_decay = 10 和 learning_rate_decay_factor = 0.001,但在这里有点摸不着头脑。
对于像我这样的小型硬件设置的良好默认设置有什么建议吗?
【问题讨论】:
标签: computer-vision tensorflow deep-learning imagenet