这是TF训练曲线过拟合还是欠拟合?

2024-10-04 09:20:35 发布

您现在位置:Python中文网/ 问答频道 /正文

在过度拟合的情况下,据我所知val_loss必须比train_loss高。 但是下面的情况如何(val_loss仍然很低)?这种型号是否严重不合身?还是完全不同的情况? 以前,我的模型会过度拟合,所以我添加了0.3的漏失(4个CudNgru层,有64个神经元,一个致密层,batchsize为64),那么我应该减少漏失吗

train_loss vs. validation_loss


Tags: 模型情况trainval型号过度lossbatchsize
1条回答
网友
1楼 · 发布于 2024-10-04 09:20:35

这既不是过度装配也不是不足装配。有些人把它称为Unknown fit。验证<&书信电报;当您在KERA中应用正则化(L1、L2、辍学等)时,会发生训练损失,因为它们仅应用于训练,而不应用于测试(验证)。因此,你的训练损失更大是有道理的(例如,由于辍学,并非所有神经元都可用于前馈)

但很明显,您的模型没有针对验证集进行优化(几乎是一条平线)。这可能是由许多因素造成的:

  • 您的验证集不能很好地代表您的数据集,具有非常简单的预测,或者非常小
  • 降低学习速度或添加更多正则化(因为您使用的是CuDNNGRU,所以经常使用正则化)
  • 您的损失函数不适合您试图解决的问题

希望这些建议能帮助你

相关问题 更多 >