YUV420p到其他格式,色差问题

2024-05-19 19:29:17 发布

您现在位置:Python中文网/ 问答频道 /正文

所以我正在用AR无人机编写一个颜色检测应用程序。无人机从它的摄像头以YUV420p格式向我的python/opencv套接字服务器发送图像。在

我使用opencv IPLImage访问映像的方法如下(是的,这是低效的,但我不想/不想自己编写新的转换工具):

  1. 将yuv图像保存到一个文件(一些_图像.yuv)在
  2. 在subprocess.call(在此处插入ffmpeg调用
  3. 在结果文件中使用bmp不重要cv.LoadImage在

我现在的问题是一个非常明显的色差。我在这些照片里挥舞着一张红色的毡布。第一个显示出浓重的黄色。第二种虽然没有那么糟糕,但非常罕见——大多数情况下,当我有红色床单时,它的颜色很深。在

我想知道这两件事:

  1. 如果有更好的方法
  2. 如果着色问题可以解决

我的ffmpeg转换线看起来像

ffmpeg -s 640x480 -vcodec rawvideo -f rawvideo -pix_fmt yuv420p -i image.yuv -vcodec bmp -f image2 output.bmp

我也试过:

^{pr2}$

不幸的是,色差总是存在的!在

色差是我现在最大的问题,因为我后来将图像转换为HSV,并使用阈值选择一个适合我的颜色范围。在


Tags: 文件方法图像comhttpstack颜色opencv
1条回答
网友
1楼 · 发布于 2024-05-19 19:29:17

这种方法似乎对我有效:

$ ffmpeg -s 352x288 -i foreman_cif_frame_0.yuv f.png
ffmpeg version N-46810-g7750c48 Copyright (c) 2000-2012 the FFmpeg developers
  built on Apr 21 2013 11:12:24 with gcc 4.6 (Ubuntu/Linaro 4.6.3-1ubuntu5)
  configuration:  enable-gpl  enable-libx264  enable-libmp3lame
  libavutil      52.  7.100 / 52.  7.100
  libavcodec     54. 71.100 / 54. 71.100
  libavformat    54. 36.100 / 54. 36.100
  libavdevice    54.  3.100 / 54.  3.100
  libavfilter     3. 23.100 /  3. 23.100
  libswscale      2.  1.102 /  2.  1.102
  libswresample   0. 16.100 /  0. 16.100
  libpostproc    52.  1.100 / 52.  1.100
[rawvideo @ 0x18a1320] Estimating duration from bitrate, this may be inaccurate
Input #0, rawvideo, from 'foreman_cif_frame_0.yuv':
  Duration: N/A, start: 0.000000, bitrate: N/A
    Stream #0:0: Video: rawvideo (I420 / 0x30323449), yuv420p, 352x288, 25 tbr, 25 tbn, 25 tbc
Output #0, image2, to 'f.png':
  Metadata:
    encoder         : Lavf54.36.100
    Stream #0:0: Video: png, rgb24, 352x288, q=2-31, 200 kb/s, 90k tbn, 25 tbc
Stream mapping:
  Stream #0:0 -> #0:0 (rawvideo -> png)
Press [q] to stop, [?] for help
frame=    1 fps=0.0 q=0.0 Lsize=       0kB time=00:00:00.04 bitrate=   0.0kbits/s    
video:201kB audio:0kB subtitle:0 global headers:0kB muxing overhead -100.000000%

输出:

Famous forman as png

另一种方法是使用强大的Imagemagick

^{2}$

有趣的是,ffmpeg和imagemagick不会返回相同的结果:

$ compare -compose src f.png f2.png diff.png

结果:

enter image description here

更新 太糟糕了。唯一合理的解释是PIL被阻塞了(当涉及到YCbCr处理时,它有一些特殊性;这里有很多关于这个的Q)。正如你从我的帖子中看到的,如果输入是正确的YCbCr,那么输出就是正常的!在

如果我没看错你的Q,你已经收到了YV12格式的数据。 输入为VGA格式,因此以下代码将单独的平面(Y、Cb、Cr)拆分为自己的变量:

# Here I'm assuming you get the data from the drone into parameter raw
# 1 frame contains 640*480*3/2 = 460800 bytes
import numpy as np

# turn raw into a numpy array
raw = np.array(raw)

# calculate where each plane starts and stops
wh = 640 * 480
p = (0, wh, wh, wh/4*5, wh/4*5, wh/2*3)

# Now use slizing to extract the different planes
yy = np.empty(640*480, dtype=np.uint8)
cb = np.empty(640*480/4, dtype=np.uint8)
cb = np.empty(640*480/4, dtype=np.uint8)

yy = raw[p[0]:p[1]]
cb = raw[p[2]:p[3]]
cr = raw[p[4]:p[5]]

现在你有了漂亮的numpy数组中的数据!要转换为矩阵,请执行以下操作:

yy.reshape([480, 640])
cb.reshape([480 / 2, 640 / 2])
cr.reshape([480 / 2, 640 / 2])

希望有帮助!如果没有,给我留言。。。在

相关问题 更多 >