张量流不同的计算机相同的代码不同的结果

2024-10-02 02:34:29 发布

您现在位置:Python中文网/ 问答频道 /正文

在 使用时tf.nn.softmax_cross_熵_with_logits在训练过程中,结果往往给出nan异常大的交叉熵值。在

(Windows 7 64位 Python 3.6(Python4.4.0) 张量流量1.4 英伟达泰坦X帕斯卡 CUDA 8.0版 铜6.0.)

Epoch00 CrossEntropy: 1.288 L2_loss: 1247.340 Cost: 32.489

Epoch01 CrossEntropy: 0.936 L2_loss: 1019.474 Cost: 23.868

Epoch02 CrossEntropy: 0.550 L2_loss: 880.814 Cost: 14.669

Epoch03 CrossEntropy: 0.331 L2_loss: 796.639 Cost: 9.435

Epoch04 CrossEntropy: nan L2_loss: nan Cost: nan

Epoch05 CrossEntropy: nan L2_loss: nan Cost: nan

但这不会发生在另一台计算机上。 完全相同的代码,相同的数据。在

(Windows 7 64位 Python 3.6(Python4.4.0) 张量流量1.3 英伟达GeForce GTX TITAN X CUDA 8.0版 铜管7.0)

Epoch00 CrossEntropy: 1.277 L2_loss: 1247.637 Cost: 32.244

Epoch01 CrossEntropy: 0.938 L2_loss: 1018.631 Cost: 23.917

Epoch02 CrossEntropy: 0.575 L2_loss: 878.269 Cost: 15.250

Epoch03 CrossEntropy: 0.345 L2_loss: 795.507 Cost: 9.766

Epoch04 CrossEntropy: 0.240 L2_loss: 741.619 Cost: 7.226

Epoch05 CrossEntropy: 0.193 L2_loss: 704.291 Cost: 6.051

我也在Linux环境中尝试过,但是结果会给出nan或大的交叉熵值。 有人知道这个问题吗?在


Tags: windowsnan交叉cuda流量costlossl2

热门问题