为什么使用GPU时SSD对小图像的推理时间比对大图像的推理时间长

2024-06-28 11:15:03 发布

您现在位置:Python中文网/ 问答频道 /正文

我发现在使用GPU时,SSD对较小图像的推断时间比较大图像的推断时间长,不知道为什么

我正在https://github.com/balancap/SSD-Tensorflow上学习SSD\u tensorflow的代码,我修改了网络代码中的feat\u形状,以便测试不同大小的图像,当我记录vgg\u ssd300的推断时间时,我发现了一个奇怪的现象:

图像(720*1280)的推断时间短于图像(300*760)

我对此非常困惑,所以我做了一些测试,发现:

  1. 当长宽比接近1:2时,推断时间会非常大,甚至比长宽比为1:1的图像大

    我的测试结果是:

    t(720、1280、3)<;t(306、763、3)

    t(720、1280、3)<;t(308665,3)

    t(720、1280、3)<;t(3071144,3)

    t(720、1280、3)<;t(302739,3)

  2. 这只发生在GPU上。在CPU上,无论长宽比是多少,图像越大,时间越长

有人发现这个问题吗


Tags: 代码https图像lt网络githubcomgpu