我正在训练我的CNN,它能够很好地预测和概括
在训练过程中,我洗牌了我的验证集,这确保了我不会只描绘批次中图片组合的偏差和验证损失,并使泛化更加稳定(我们的图片数量非常少,因为我们通过对患病患者的脑部MRI扫描来训练网络)
我总是在一个尽可能稳定的区域(在120-250纪元范围内)选择我的网,这总是比我通常在训练的早期阶段得到的“最低损失”提供更好的预测结果
无论如何,我对此没有任何问题。 但是,我没有令人满意的解释,如何在预测较差的训练的早期阶段比在“较差”损失的训练的后期阶段出现较低的损失(1-骰子)(较好的骰子)。 我也找不到任何论文或参考文献,来解释这样的“问题”
任何帮助都将不胜感激
目前没有回答
相关问题 更多 >
编程相关推荐