Outils pour utilisateurs

Outils du site


streaming_over_network_with_opencv_et_zeromq

Différences

Ci-dessous, les différences entre deux révisions de la page.

Lien vers cette vue comparative

Les deux révisions précédentesRévision précédente
Prochaine révision
Révision précédente
streaming_over_network_with_opencv_et_zeromq [2022/02/19 08:58] – [Profondeur d'une OAK-D Lite] sergestreaming_over_network_with_opencv_et_zeromq [2022/02/25 13:15] (Version actuelle) – [Profondeur d'une OAK-D Lite] serge
Ligne 6: Ligne 6:
 </WRAP> </WRAP>
  
 +**Pas de latence, peu ce consommation CPU, en python super facile à implémenter**\\
 +**mais pas de réception dans VLC et Pure Data.**\\
 +Utiliser **[[streamer_des_images_opencv_avec_v4l2-loopback|Streamer des images OpenCV avec v4l2-loopback]]**
 =====ZeroMQ===== =====ZeroMQ=====
 **[[https://zeromq.org/|zeromq.org]]** (également écrit ØMQ, 0MQ ou ZMQ) est une bibliothèque de messagerie asynchrone haute performance **[[https://zeromq.org/|zeromq.org]]** (également écrit ØMQ, 0MQ ou ZMQ) est une bibliothèque de messagerie asynchrone haute performance
Ligne 17: Ligne 20:
   * [[https://github.com/jeffbass/imagezmq|Transporting OpenCV images]]   * [[https://github.com/jeffbass/imagezmq|Transporting OpenCV images]]
  
-=====Installation=====+=====Implémentation dans Pure Data===== 
 +  * https://github.com/sansculotte/pd-zmq 
 + 
 +====Installation de puredata==== 
 +  sudo apt install multimedia-puredata libzmq3-dev 
 +   
 +====Compilation du patch zmq==== 
 +  git clone git@github.com:sansculotte/pd-zmq.git 
 +  cd pd-zmq 
 +  make 
 +   
 +====Utilisation des scripts fournis==== 
 +Ça envoie et reçoit des int/string, mais pas d'images !\\ 
 +Extrait de https://github.com/sansculotte/pd-zmq/blob/master/TODO\\ 
 +<code> 
 +LATER 
 +* proper architecture workflows 
 +** multiconnects/multicast (pgm?) 
 +* complex objects 
 +** [zmf_router] -- [broker] as abstraction? 
 +** [zmf_dealer] -/ 
 +** [zmf_pair] 
 +* implement streams to send audio blocks 
 +** binary modes 
 +* send/receive modes 
 +** binary (for audio/video frames) 
 +** string (for communication w external programs) 
 +</code> 
 +Le paquet de la première image est reçu, mais il ne passe passe rien ensuite ... 
 +=====Installation du module python=====
 Dans un environnement virtuel python (3.9) Dans un environnement virtuel python (3.9)
  
Ligne 38: Ligne 70:
 </code> </code>
  
 +====Lancement d'un script====
 +
 +  cd /le/dossier/de/votre/projet
 +  ./mon_env/bin/python3 sender_cam.py  # sender_cam.py est le script ci_dessous
 +  
 +====Sender avec python et receive dans pd====
 +
 +Bon, là je suis nul en pd !
 =====Exemples===== =====Exemples=====
   * Exemples inspirés de: https://github.com/jeffbass/imagezmq/tree/master/examples   * Exemples inspirés de: https://github.com/jeffbass/imagezmq/tree/master/examples
Ligne 52: Ligne 92:
  
 sender = imagezmq.ImageSender(connect_to='tcp://127.0.0.1:5555') sender = imagezmq.ImageSender(connect_to='tcp://127.0.0.1:5555')
- 
 my_name = "moi" my_name = "moi"
 cap = cv2.VideoCapture(2) cap = cv2.VideoCapture(2)
 time.sleep(2.0) time.sleep(2.0)
- 
 while 1: while 1:
     # image peut venir de n'importe quoi !     # image peut venir de n'importe quoi !
     # ici, c'est pour une caméra     # ici, c'est pour une caméra
     ret, image = cap.read()     ret, image = cap.read()
-     
     if ret:     if ret:
         cv2.imshow("moi", image)         cv2.imshow("moi", image)
         sender.send_image(my_name, image)         sender.send_image(my_name, image)
         print("send:", image.shape)         print("send:", image.shape)
- 
     if cv2.waitKey(10) == 27:     if cv2.waitKey(10) == 27:
         break         break
Ligne 76: Ligne 112:
  
 image_hub = imagezmq.ImageHub() image_hub = imagezmq.ImageHub()
- 
 while 1: while 1:
     your_name, image = image_hub.recv_image()     your_name, image = image_hub.recv_image()
     print(your_name, image.shape)     print(your_name, image.shape)
- 
     cv2.imshow(your_name, image)     cv2.imshow(your_name, image)
     image_hub.send_reply(b'OK')     image_hub.send_reply(b'OK')
- 
     if cv2.waitKey(10) == 27:     if cv2.waitKey(10) == 27:
         break         break
 </file> </file>
- 
-====Profondeur d'une OAK-D Lite==== 
-<code bash> 
-cd /le/dossier/de/votre/projet 
-source mon_env/bin/activate 
-python3 -m pip install depthai numpy 
-</code> 
- 
-<file python sender_oak_depth.py> 
-import time 
-import imagezmq 
-import cv2 
-import depthai as dai 
-import numpy as np 
- 
-sender = imagezmq.ImageSender(connect_to='tcp://127.0.0.1:5555') 
-time.sleep(2.0) 
- 
-pipeline = dai.Pipeline() 
-# Define a source - two mono (grayscale) cameras 
-left = pipeline.createMonoCamera() 
-left.setResolution(dai.MonoCameraProperties.SensorResolution.THE_400_P) 
-left.setBoardSocket(dai.CameraBoardSocket.LEFT) 
-right = pipeline.createMonoCamera() 
-right.setResolution(dai.MonoCameraProperties.SensorResolution.THE_400_P) 
-right.setBoardSocket(dai.CameraBoardSocket.RIGHT) 
-# Create a node that will produce the depth map (using disparity output as it's easier to visualize depth this way) 
-depth = pipeline.createStereoDepth() 
-depth.setConfidenceThreshold(200) 
- 
-# Options: MEDIAN_OFF, KERNEL_3x3, KERNEL_5x5, KERNEL_7x7 (default) 
-median = dai.StereoDepthProperties.MedianFilter.KERNEL_7x7 # For depth filtering 
-depth.setMedianFilter(median) 
- 
-# Better handling for occlusions: 
-depth.setLeftRightCheck(False) 
-# Closer-in minimum depth, disparity range is doubled: 
-depth.setExtendedDisparity(False) 
-# Better accuracy for longer distance, fractional disparity 32-levels: 
-depth.setSubpixel(False) 
- 
-left.out.link(depth.left) 
-right.out.link(depth.right) 
- 
-# Create output 
-xout = pipeline.createXLinkOut() 
-xout.setStreamName("disparity") 
-depth.disparity.link(xout.input) 
- 
-with dai.Device(pipeline) as device: 
-    device.startPipeline() 
-    # Output queue will be used to get the disparity frames from the outputs defined above 
-    q = device.getOutputQueue(name="disparity", maxSize=4, blocking=False) 
- 
-    while True: 
-        inDepth = q.get()  # blocking call, will wait until a new data has arrived 
-        frame = inDepth.getFrame() 
-        frame = cv2.normalize(frame, None, 0, 255, cv2.NORM_MINMAX) 
-        # Convert depth_frame to numpy array to render image in opencv 
-        depth_gray_image = np.asanyarray(frame) 
-        # Resize Depth image to 640x480 
-        resized = cv2.resize(depth_gray_image, (640, 480), interpolation = cv2.INTER_AREA) 
-        sender.send_image("moi", resized) 
-        cv2.imshow("disparity", resized) 
-        if cv2.waitKey(1) == 27: 
-            break 
-</file> 
-Le receiver est le même que ci-dessus. 
  
  
  
-{{tag>opencv pd pure-data pure_data python sb vlc}}+{{tag>zmc opencv pd pure-data pure_data python sb}}
streaming_over_network_with_opencv_et_zeromq.1645261139.txt.gz · Dernière modification : 2022/02/19 08:58 de serge