我目前正在使用定制的Blazepose模型(这里是repo和code)。我面临着将预测可视化的问题。我检查了源代码,发现模型返回3个输出:
model = Model(inputs=inputs, outputs=[conv99_1, sigm99_1, reshape99_2])
我还检查了tf.js代码(https://github.com/terryky/tfjs_webgl_app/blob/master/blazepose_fullbody/tfjs_blazepose.js),但我无法理解它们是如何可视化这些点的
如何在图像中可视化这些点?另外,我正在尝试训练58个关键点,而不是39个关键点,你能告诉我这方面的情况吗
我在256 x 256 x 3
图像上的输出形状是:
(1, 128, 128, 1)
(1, 1, 1, 1)
(1, 156)
以下是完整的Model Architechture:
Input :
==================================================================================================
input (InputLayer) [(None, 256, 256, 3) 0
__________________________________________________________________________________________________
输出:
output_segmentation (Conv2D) (None, 128, 128, 1) 73 conv2d_68[0][0]
__________________________________________________________________________________________________
tf_op_layer_Sigmoid (TensorFlow (None, 1, 1, 1) 0 conv2d_69[0][0]
__________________________________________________________________________________________________
tf_op_layer_ld_3d (TensorFlowOp (1, 156) 0 conv2d_70[0][0]
我已经开发了推理代码,它的工作对我来说是完美的
相关问题 更多 >
编程相关推荐