我在用caffe训练一个在底部有欧几里德损失层的CNN解算器.prototxt配置为每100次迭代显示一次的文件。我看到这样的东西
Iteration 4400, loss = 0
I0805 11:10:16.976716 1936085760 solver.cpp:229] Train net output #0: loss = 2.92436 (* 1 = 2.92436 loss)
迭代和净损失的区别是什么。通常迭代损失很小(约为0),列车净输出损失稍大。有人能澄清一下吗?在
Tags:
埃文·谢尔哈默已经在https://groups.google.com/forum/#!topic/caffe-users/WEhQ92s9Vus上给出了答案。在
正如他所指出的,
net output #k
结果是特定迭代/批处理的网络输出,而Iteration T, loss = X
输出根据average_loss
字段在迭代中平滑。在相关问题 更多 >
编程相关推荐