我试图建立一个分类模型来识别室内设计中图片的视角。目前,我只考虑两个类:SoaSyLead和SoopaS右方,这取决于沙发的位置{a1}。
我使用了与此相同的代码tutorial进行迁移学习(基于MobileNetV2和imagenet权重)
代码没有问题:我可以使用提供的猫和狗数据集重现预期结果。
如果有帮助的话,下面是模型摘要
_________________________________________________________________
Layer (type) Output Shape Param #
=================================================================
input_31 (InputLayer) [(None, 160, 160, 3)] 0
_________________________________________________________________
tf_op_layer_strided_slice (T [(None, 160, 160, 3)] 0
_________________________________________________________________
tf_op_layer_BiasAdd (TensorF [(None, 160, 160, 3)] 0
_________________________________________________________________
resnet50 (Functional) (None, 5, 5, 2048) 23587712
_________________________________________________________________
global_average_pooling2d_15 (None, 2048) 0
_________________________________________________________________
dropout_15 (Dropout) (None, 2048) 0
_________________________________________________________________
dense_15 (Dense) (None, 1) 2049
=================================================================
Total params: 23,589,761
Trainable params: 2,049
Non-trainable params: 23,587,712
_________________________________________________________________
然而,对于我自己的图像,结果真的很差(50%的准确率…),我不知道为什么。 模型中有辍学者,我尝试了许多设置(学习率、验证分割、批量大小)和许多预先训练的模型
我每节课大约有150张照片。我知道这不是一个大的数据集,但我不需要太多概括,我需要测试的所有图片都是同一类型的。它太短了吗
我对数据集上的MobileNetV2和tada所做的预测运行了kmeans clustering
算法。。。图片在左沙发和右沙发之间进行了完美的分类。这给了我直觉,这个分类问题应该可以通过学习来解决。我说得对吗?
我错过什么了吗
谢谢你的帮助
目前没有回答
相关问题 更多 >
编程相关推荐