我正在制作一个DNN来解决回归问题。在
首先,我加载一个预先训练的VGG16网络,然后我制作几个完全连接的隐藏层。最后一层有一个输出标量的节点。在
我想输出的形状应该是[batch\u size]或[batch\u size,1]。在
但是当我打电话。。。在
...
fc5 = tf.layers.dense(inputs=fc4, units=1)
print(tf.shape(fc5))
print(fc5.get_shape())
。。。我得到:
>;张量(“形状:0“,形状=(4,),数据类型=int32)
>;(?, ?, ?,1)
有人能解释一下吗?为什么形状有前三个维度,tf.layers.dense
不应该使其成为标量或标量列表?在
编辑:
vgg斨u layer7斨out形状:
>;张量(“形状:0“,形状=(4,),数据类型=int32)
>;(?, ?, ?,4096)
fc1形状:
>;张量(“形状:0“,形状=(4,),数据类型=int32)
>;(?, ?, ?,1024)
。。。在
fc4形状:
>;张量(“形状:0“,形状=(4,),数据类型=int32)
>;(?, ?, ?,10)
fc层代码:
^{pr2}$
就像迪米特里说的,我忘了把它弄平。。。在调用loss func laster之前,还可以使用
tf.squeeze
函数。在相关问题 更多 >
编程相关推荐