====== Luxonis OAK-D Lite ====== {{ :media_15:oak-d-lite_shot.jpg?600 |}} Le pied n'est pas founi. ~150€ =====Ressources===== * **[[https://www.opencv.ai/post/oak-d-lite|OAK—D. LITE Kickstarter campaign is already launched!]]** * **[[https://learnopencv.com/introduction-to-opencv-ai-kit-and-depthai/|Introduction to OAK-D and DepthAI du bien connu learnopencv.com]]** * **[[https://docs.luxonis.com/projects/hardware/en/latest/pages/DM9095.html|OAK-D-Lite @ Luxonis.com ]]** ====Qui est Luxonis.com ?==== [[https://www.dnb.com/products/small-business/compare-products-other-business.html|Financial Data]]\\ Dun & Bradstreet collects private company financials for more than 23 million companies worldwide.\\ Revenue in USD Annual Revenue $50,000 USD 2019\\ Traduction de : **https://www.luxonis.com/careers** Notre mission est d'améliorer l'efficacité de l'ingénierie en intégrant une IA + CV spatiale performante dans les produits. Pour ce faire, nous construisons et maintenons l'écosystème open source [[https://docs.luxonis.com/en/latest/pages/faq/#why-does-depthai-exist|DepthAI]] qui est également maintenant le kit [[https://www.kickstarter.com/projects/opencv/opencv-ai-kit|OpenCV AI]]. En d'autres termes, nous construisons la technologie de base qui permet une perception humaine dans des produits réels - permettant des applications 0 à 1 dans presque tous les secteurs. La technologie permet de résoudre des problèmes qui nécessitent une perception humaine, mais disons dans un cube de 1". Un bon article externe sur Luxonis est sur [[https://www.bloomberg.com/news/articles/2021-03-11/oak-d-device-paves-the-way-for-future-spatial-ai|Bloomberg]] ‍Nous rendons possible ce qui était de la science-fiction en 2017 : * Appareils portables qui perçoivent le monde et permettent aux aveugles de percevoir à travers des paysages sonores * Des systèmes embarqués capables de protéger automatiquement les espèces menacées * Des robots qui permettent l'agriculture biologique sans produits chimiques (en utilisant des lasers pour cibler les mauvaises herbes et les parasites) * Perception intégrée à la machinerie lourde pour protéger en temps réel la santé et la sécurité des travailleurs. * Perception intégrée dans les zones éloignées pour surveiller et protéger de manière autonome l'environnement contre les fuites et autres conditions dangereuses. * De nouvelles formes d'appareils de communication - combler le fossé entre l'expérience en personne et l'expérience Zoom. Notre mission est d'améliorer matériellement l'efficacité de l'ingénierie du monde. C'est ce que notre équipe (et backers) a fait auparavant sur un autre marché (en WiFi d'entreprise, avec UniFi). Et nous visons maintenant à faire de même pour ce super-pouvoir de perception humaine dans les systèmes embarqués - ce qui fait que le prototypage avec cette puissance prend des heures, et l'implémenter dans un produit est aussi rapide qu'un boîtier peut être conçu et produit ====Critique==== Remarque de l'auteur: Belle philosophie mais les Homo Sapiens mal intentionnés pourront aussi utiliser ces technologies pour faire le **Mal**. =====Installation sur Ubuntu 20.04 intelligente===== Mais pourquoi chercher à comprendre, LUXONIS fait tout à ta place, tu n'a qu'a cliquer.\\ A quand les robots cliqueur à ta place ! ====Dépendances système==== Ne rien installer\\ git clone https://github.com/luxonis/depthai.git Coller le dossier depthai_sdk dans le dossier du projet. ====Python 3.8==== Pour Ubuntu 20.04: requests==2.26.0 --extra-index-url https://www.piwheels.org/simple opencv-contrib-python==4.5.1.48 -e ./depthai_sdk --extra-index-url https://artifacts.luxonis.com/artifactory/luxonis-depthai-data-local/wheels/ pyqt5>5,<5.15.6 --extra-index-url https://artifacts.luxonis.com/artifactory/luxonis-python-snapshot-local/ depthai==2.17.3.0 ffmpy3==0.2.4 pyusb==1.2.1 sentry-sdk==1.5.1 open3d==0.10.0.0 echo 'SUBSYSTEM=="usb", ATTRS{idVendor}=="03e7", MODE="0666"' | sudo tee /etc/udev/rules.d/80-movidius.rules =====Installation sur Ubuntu 20.04 en suivant la doc===== git clone https://github.com/luxonis/depthai.git cd depthai python3 install_requirements.py python3 depthai_demo.py Message d'alerte qui clignote: WARNING: Usb rules not found Set rules: echo 'SUBSYSTEM=="usb", ATTRS{idVendor}=="03e7", MODE="0666"' | sudo tee /etc/udev/rules.d/80-movidius.rules sudo udevadm control --reload-rules && sudo udevadm trigger Disconnect/connect usb cable on host! Saisir: echo 'SUBSYSTEM=="usb", ATTRS{idVendor}=="03e7", MODE="0666"' | sudo tee /etc/udev/rules.d/80-movidius.rules [sudo] Mot de passe de : SUBSYSTEM=="usb", ATTRS{idVendor}=="03e7", MODE="0666" sudo udevadm control --reload-rules && sudo udevadm trigger ====Premier test==== Management Laisser faire ....depthai$ python3 depthai_demo.py Using depthai module from: /home/serge/.local/lib/python3.9/site-packages/depthai.cpython-39-x86_64-linux-gnu.so Depthai version installed: 2.14.1.0.dev+27fa4519f289498e84768ab5229a1a45efb7e4df Traceback (most recent call last): File "/media/data/3D/projets/depthai/depthai_demo.py", line 982, in runQt() File "/media/data/3D/projets/depthai/depthai_demo.py", line 560, in runQt from gui.main import DemoQtGui File "/media/data/3D/projets/depthai/gui/main.py", line 7, in from PyQt5.QtQml import QQmlApplicationEngine, qmlRegisterType, qmlRegisterSingletonType, QQmlEngine RuntimeError: the sip module implements API v12.0 to v12.8 but the PyQt5.QtQml module requires API v12.9 Sentry is attempting to send 2 pending error messages Waiting up to 2 seconds Press Ctrl-C to quit Error while running demo script... Command '"/usr/bin/python3" depthai_demo.py --noSupervisor --guiType qt' returned non-zero exit status 1. Waiting 5s for the device to be discoverable again... Setting up demo... Available devices: [0] 184430100110691200 [X_LINK_UNBOOTED] USB Connection speed: UsbSpeed.SUPER Downloading /home/serge/.cache/blobconverter/mobilenet-ssd_openvino_2021.4_6shave.blob... [==================================================] Done ====Première image==== {{ :media_15:oak-d-lite-first-test.png?800 |}} {{ :media_15:oak_1.png?800 |}} =====Depthai et Movenet===== ====Ressources==== * **[[https://pythonrepo.com/repo/geaxgx-depthai_movenet|MoveNet Single Pose tracking on DepthAI]]** git clone https://github.com/geaxgx/depthai_movenet.git {{ :media_15:depth_ai_movenet_0.png?400 |}} Ce projet ne donne pas la profondeur ! =====BlazePose : A 3D Pose Estimation Model===== * **https://medium.com/axinc-ai/blazepose-a-3d-pose-estimation-model-d8689d06b7c4** Une Pin-Up pour vendre ! {{ :media_15:google_blazepose.png?400 }} BlazePose (Full Body) is a pose detection model developed by Google that can compute (x,y,z) coordinates of 33 skeleton keypoints. It can be used for example in fitness applications. ====Test 1==== Avec **[[https://github.com/geaxgx/depthai_blazepose|depthai_blazepose de geaxgx sur github.com]]** /...../projets/depthai_blazepose/mon_env/bin/python3 demo.py -xyz -c -e --no_smoothing {{ :media_15:blazepose_test_1.png?400 |}} Les calculs de reconnaissance se font sur le TPU intégré à la caméra avec l'option -e, le CPU est occupé à ~30% ! --lm_m lite FPS = 21 --lm_m full FPS = 16 --lm_m heavy FPS = 6 la précision en profondeur est étonnante ====Suite==== Utilisation sur le projet Grande Echelle: * **[[depthai_blazepose_par_la_labomedia|depthai blazepose par La Labomedia]]** {{tag>ia opencv python sb depthai ia}}