当前位置:   article > 正文

使用opencv读取rtsp流的图片帧进行目标检测,并将处理好的图像推到rtsp服务器上_opencv rtsp

opencv rtsp

目录

业务场景

解决方案一:使用opencv+Gstreamer-rtsp-server完成(推荐)

        环境配置

        代码

解决方案二:使用ffmpeg+rtsp服务器完成

参考链接如下:


业务场景

使用opencv读取rtsp流的图片帧进行目标检测(画框),并将处理好的图像推到rtsp服务器上。东拼西凑,再加上一点点的学习,终于是能基本完成目标了,泪目!!

解决方案一:使用opencv+Gstreamer-rtsp-server完成(推荐)

        环境配置

        使用的是Ubuntu18.04+Python3.6+Gstreamer1.0+opencv4.5,具体安装网上全都是,不多说,直接上代码。

        代码

         代码是直接借鉴的,原网址是https://stackoverflow.com/questions/47396372/write-opencv-frames-into-gstreamer-rtsp-server-pipeline/60580247#60580247%3E(世上还是好人多,拜谢),只是通过自己浅薄的Gstreamer知识加了一点点注释,这段代码给了我很大帮助,最后输出的rtsp地址是rtsp://localhost:8555/test,端口可以自己设置。

        我图像处理任务是对rtsp流视频进行目标检测,代码是在RTX2080super跑的,画完框推上来的视频延迟达到了8秒,还是很离谱的,不知道那部分出了问题,未解决。

  1. import cv2
  2. import gi
  3. gi.require_version('Gst', '1.0')
  4. gi.require_version('GstRtspServer', '1.0')
  5. from gi.repository import Gst, GstRtspServer, GObject, GLib
  6. class SensorFactory(GstRtspServer.RTSPMediaFactory):
  7. def __init__(self, **properties):
  8. super(SensorFactory, self).__init__(**properties)
  9. self.cap = cv2.VideoCapture("rtsp://...")
  10. # self.cap = cv2.VideoCapture(0)
  11. self.width = int(self.cap.get(cv2.CAP_PROP_FRAME_WIDTH))
  12. self.height = int(self.cap.get(cv2.CAP_PROP_FRAME_HEIGHT))
  13. self.number_frames = 0
  14. self.fps = int(self.cap.get(cv2.CAP_PROP_FPS)) % 100
  15. self.duration = 1 / self.fps * Gst.SECOND # duration of a frame in nanoseconds
  16. """
  17. appsrc:使应用程序能够提供缓冲区写入管道;
  18. block: 每块推送buffer块的最大字节;
  19. is-live:当前推送的是否直播数据;
  20. caps:过滤器
  21. rtph264pay:把H264 视频数据编码进RTP包
  22. """
  23. self.launch_string = 'appsrc name=source is-live=true block=true format=GST_FORMAT_TIME ' \
  24. 'caps=video/x-raw,format=BGR,width={},height={},framerate={}/1 ' \
  25. '! videoconvert ! video/x-raw,format=I420 ' \
  26. '! x264enc speed-preset=fast tune=zerolatency threads=4 ' \
  27. '! rtph264pay config-interval=1 name=pay0 pt=96'.format(self.width,
  28. self.height,
  29. self.fps)
  30. def on_need_data(self, src, lenght):
  31. if self.cap.isOpened():
  32. ret, frame = self.cap.read()
  33. if ret:
  34. #TODO 自己发挥,做一些图像识别,画框等任务,
  35. data = frame.tostring()
  36. buf = Gst.Buffer.new_allocate(None, len(data), None)
  37. buf.fill(0, data)
  38. buf.duration = self.duration
  39. timestamp = self.number_frames * self.duration
  40. buf.pts = buf.dts = int(timestamp)
  41. buf.offset = timestamp
  42. self.number_frames += 1
  43. retval = src.emit('push-buffer', buf)
  44. print('pushed buffer, frame {}, duration {} ns, durations {} s'.format(self.number_frames,
  45. self.duration,
  46. self.duration / Gst.SECOND))
  47. if retval != Gst.FlowReturn.OK:
  48. print(retval)
  49. def do_create_element(self, url):
  50. return Gst.parse_launch(self.launch_string)
  51. def do_configure(self, rtsp_media):
  52. self.number_frames = 0
  53. appsrc = rtsp_media.get_element().get_child_by_name('source')
  54. appsrc.connect('need-data', self.on_need_data)
  55. class GstServer(GstRtspServer.RTSPServer):
  56. def __init__(self, **properties):
  57. super(GstServer, self).__init__(**properties)
  58. self.set_service("8555")
  59. self.factory = SensorFactory()
  60. self.factory.set_shared(True)
  61. self.get_mount_points().add_factory("/test", self.factory)
  62. self.attach(None)
  63. if __name__ == "__main__":
  64. GObject.threads_init()
  65. Gst.init(None)
  66. server = GstServer()
  67. loop = GObject.MainLoop()
  68. loop.run()

        在代码跑通后,通过VLC进行验证,一阵狂喜,但是又出现了新的问题,我想让让多个客户端访问生成的rtsp流,但当我使用多个VLC访问rtsp地址时,出现了错误,这和预想的实现效果不一样,于是又是一通百度,解决方案有https://blog.csdn.net/Aidam_Bo/article/details/109772430,还有github上的大佬给指点的路https://github.com/mad4ms/python-opencv-gstreamer-examples/issues/2,代码基本上都是C/C++完成的,对于我这种只会一丢丢C的战五渣,直接选择放弃 。(希望哪位大佬有空的时候把上面链接的代码改成python,给渣渣们指条道) 。

        但是事情还得做,搜索无果后,  只能选择最笨的方式,几路访问就写死几路,把上面的Gstserver类修改一下,以两路为例,生成两个rtsp流地址,使用两个VLC分别访问,代码

  1. class GstServer(GstRtspServer.RTSPServer):
  2. def __init__(self, **properties):
  3. super(GstServer, self).__init__(**properties)
  4. self.set_service("8555")
  5. self.factory = SensorFactory()
  6. self.factory.set_shared(True)
  7. self.get_mount_points().add_factory("/test", self.factory)
  8. ###修改
  9. self.factory1 = SensorFactory()
  10. self.factory1.set_shared(True)
  11. self.get_mount_points().add_factory("/test1", self.factory1)
  12. ###
  13. self.attach(None)

        如果读者还有更好的实现方法,请务必在下面评论或者私信我,感激不尽!!!

解决方案二:使用ffmpeg+rtsp服务器完成

        环境配置

        上面的项目虽然实现了基本功能,但是不完美,于是寻求别的解决方案,偶然间看到一篇博客,地址为https://blog.csdn.net/qq_43591363/article/details/107850324,觉得非常有搞头,直接根据上面的链接配置即可,不过在安装ffmpeg时,我没有使用博客的方法,而是直接使用了sudo install ffmpeg命令,实测好使。在安装好x264、ffmpeg、node-rtsp-server环境之后,打开rtsp服务器。

  1. cd node-rtsp-rtmp-server
  2. sudo coffee server.coffee

       代码实现

        运行推流代码,访问rtsp://localhost:80/live/STREAMNAME即可。

  1. import cv2
  2. import gi
  3. import subprocess
  4. class Put_rtsp():
  5. def __init__(self,cap):
  6. self.cap = cv2.VideoCapture(cap)
  7. # self.cap = cv2.VideoCapture("rtsp://192.168.111.131:6666/live")
  8. # self.cap = cv2.VideoCapture(0)
  9. self.width = int(self.cap.get(cv2.CAP_PROP_FRAME_WIDTH))
  10. self.height = int(self.cap.get(cv2.CAP_PROP_FRAME_HEIGHT))
  11. self.number_frames = 0
  12. self.fps = int(self.cap.get(cv2.CAP_PROP_FPS)) % 100
  13. def on_need_data(self):
  14. if self.cap.isOpened():
  15. ret, frame = self.cap.read()
  16. #TODO 图像处理任务
  17. return frame
  18. rtsp_o = "rtsp://...."
  19. rtsp_p = 'rtsp://localhost:80/live/STREAMNAME'
  20. # 读取视频并获取属性
  21. cap = cv2.VideoCapture(rtsp_o)
  22. width = int(cap.get(cv2.CAP_PROP_FRAME_WIDTH))
  23. height = int(cap.get(cv2.CAP_PROP_FRAME_HEIGHT))
  24. # print(width,height)
  25. fps = int(cap.get(cv2.CAP_PROP_FPS)) % 100
  26. size = (width,height)
  27. sizeStr = str(size[0]) + 'x' + str(size[1])
  28. command = ['ffmpeg',
  29. '-y', '-an',
  30. '-re',
  31. '-f', 'rawvideo',
  32. '-pix_fmt', 'bgr24',
  33. '-s', sizeStr,
  34. '-r', str(fps),
  35. '-i', '-',
  36. '-c:v','libx264',
  37. '-g', '1',
  38. '-maxrate:v', '6M',
  39. '-minrate:v', '2M',
  40. '-bufsize:v', '4M',
  41. '-pix_fmt','yuv420p',
  42. # '-profile:v','high444',
  43. '-preset','fast',#'ultrafast',# 'superfast',
  44. '-tune', 'zerolatency',
  45. # '-b:v', '4M',
  46. '-f', 'rtsp',
  47. rtsp_p]
  48. pipe = subprocess.Popen(command
  49. , shell=False
  50. , stdin=subprocess.PIPE
  51. )
  52. while cap.isOpened():
  53. f = Put_rtsp(rtsp_o)
  54. frame = f.on_need_data()
  55. data = frame.tostring()
  56. pipe.stdin.write(data)
  57. cap.release()
  58. pipe.terminate()

        项目输出的rtsp流能被多个VLC同时访问,没有处理的原视频直接推效果还可以,但是当我执行画框任务时太卡了,基本上一秒一帧,都成PPT了,还容易掉线,这谁顶得住,太难了!!!如果读者还有更好的实现方法或者改进方案,请务必在下面评论或者私信我,感激不尽!!!

参考链接如下:

        方案一参考链接:https://stackoverflow.com/questions/47396372/write-opencv-frames-into-gstreamer-rtsp-server-pipeline/60580247#60580247%3E

        方案二参考链接:https://blog.csdn.net/qq_43591363/article/details/107850324

        

        

        

声明:本文内容由网友自发贡献,不代表【wpsshop博客】立场,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:https://www.wpsshop.cn/w/繁依Fanyi0/article/detail/300320
推荐阅读
相关标签
  

闽ICP备14008679号