2024-10-04 09:20:35 发布
网友
在过度拟合的情况下,据我所知val_loss必须比train_loss高。 但是下面的情况如何(val_loss仍然很低)?这种型号是否严重不合身?还是完全不同的情况? 以前,我的模型会过度拟合,所以我添加了0.3的漏失(4个CudNgru层,有64个神经元,一个致密层,batchsize为64),那么我应该减少漏失吗
val_loss
train_loss
这既不是过度装配也不是不足装配。有些人把它称为Unknown fit。验证<&书信电报;当您在KERA中应用正则化(L1、L2、辍学等)时,会发生训练损失,因为它们仅应用于训练,而不应用于测试(验证)。因此,你的训练损失更大是有道理的(例如,由于辍学,并非所有神经元都可用于前馈)
但很明显,您的模型没有针对验证集进行优化(几乎是一条平线)。这可能是由许多因素造成的:
希望这些建议能帮助你
这既不是过度装配也不是不足装配。有些人把它称为Unknown fit。验证<&书信电报;当您在KERA中应用正则化(L1、L2、辍学等)时,会发生训练损失,因为它们仅应用于训练,而不应用于测试(验证)。因此,你的训练损失更大是有道理的(例如,由于辍学,并非所有神经元都可用于前馈)
但很明显,您的模型没有针对验证集进行优化(几乎是一条平线)。这可能是由许多因素造成的:
希望这些建议能帮助你
相关问题 更多 >
编程相关推荐