yolo_avec_mes_propres_images
Différences
Ci-dessous, les différences entre deux révisions de la page.
Les deux révisions précédentesRévision précédenteProchaine révision | Révision précédente | ||
yolo_avec_mes_propres_images [2019/03/13 18:27] – [Dépendances] serge | yolo_avec_mes_propres_images [2020/12/27 15:08] (Version actuelle) – serge | ||
---|---|---|---|
Ligne 1: | Ligne 1: | ||
- | ====== | + | ====== |
- | <WRAP center round box 80% centeralign> | + | <WRAP center round box 60% centeralign> |
- | **{{tagpage> | + | **{{tagpage> |
+ | </WRAP> | ||
+ | <WRAP center round box 60% centeralign> | ||
+ | **[[les_pages_intelligence_artificielle_en_details|Les Pages Intelligence Artificielle | ||
</ | </ | ||
- | <WRAP center round box 80% centeralign> | + | <WRAP center round box 60% centeralign> |
- | **Cette page teste YOLO de [[computer_vision_and_pattern_recognition_segmentation_d_image# | + | **{{tagpage> |
</ | </ | ||
- | =====YOLO avec mes propres images===== | + | <WRAP center round box 60% centeralign> |
- | Nos images sont des images du **[[jeu_du_semaphore_dans_le_blender_game_engine|sémaphore]]** | + | C'est quoi un sémaphore |
+ | {{ youtube> | ||
+ | {{ media_05: | ||
- | Nous allons créer 27 classes des 27 lettres possibles. | + | // |
+ | </ | ||
- | ====Quel YOLO ?==== | ||
- | * **[[https:// | ||
- | * **[[https:// | ||
- | * **[[https:// | ||
- | * **[[https:// | ||
- | ====Implementations possibles==== | ||
- | * **[[https:// | ||
- | * **[[https:// | ||
- | * **[[https:// | ||
=====Création du set d' | =====Création du set d' | ||
- | **C'est la partie la plus facile pour un pro de l' | + | Nos images sont des images du **[[:jeu_du_semaphore_dans_le_blender_game_engine|sémaphore]]** |
+ | ====Les sources sur GitHub==== | ||
+ | * **[[https:// | ||
====Création de 27 images pour 27 classes d' | ====Création de 27 images pour 27 classes d' | ||
- | Avec Blender et par un homo-sapiens | + | * Avec Blender et par un homo-sapiens |
- | Taille | + | |
- | Images en violet sur alpha, avec un sémaphore qui occupe toute l' | + | |
Exemple pour le a: | Exemple pour le a: | ||
- | {{ :2019_03: | + | {{ media_01: |
Les images sorties de Blender n'ont pas de canal alpha: passage dans Gimp pour faire un couleur (blanc) vers alpha. Il ne doit donc pas y avoir de blanc (ou de gris) dans la couleur du sémaphore ! | Les images sorties de Blender n'ont pas de canal alpha: passage dans Gimp pour faire un couleur (blanc) vers alpha. Il ne doit donc pas y avoir de blanc (ou de gris) dans la couleur du sémaphore ! | ||
- | ====70.000 | + | Puis les images |
- | Images: 1024x1024 | + | |
- | En insérant une des images ci-dessus sur un shot d'une video, avec variation taille position flou du sémaphore, | + | ====60 000 images 640x640 créées avec OpenCV==== |
- | + | ===Images=== | |
- | et en créant | + | En insérant une des images ci-dessus sur un shot d'une video, avec variation taille position |
- | | + | {{ media_01: |
+ | ===Fichier txt localisant le ou les objets dans l' | ||
+ | Créer | ||
+ | | ||
Pour chaque fichier *.txt | Pour chaque fichier *.txt | ||
< | < | ||
Ligne 58: | Ligne 61: | ||
0 0,40625 0,43752 0,625 0,625 | 0 0,40625 0,43752 0,625 0,625 | ||
| | ||
- | ===Exemple=== | ||
- | {{ : | ||
- | =====Darknet===== | ||
- | * **[[https:// | ||
- | ====Dépendances==== | ||
- | Sur Debian 10 Buster: | ||
- | * CMake >= 3.8 for modern CUDA soit cmake 3.13.4-1 | ||
- | * CUDA 10.0: https:// | ||
- | * OpenCV < 4.0 sudo pip3 install opencv-python==3.4.5.20 | ||
- | * cuDNN >= 7.0 for CUDA 10.0 https:// | ||
- | * GPU with CC >= 3.0: https:// | ||
- | * GCC or Clang | ||
- | |||
- | ====Compilation==== | ||
- | ===Modification des options dans Makefile=== | ||
- | < | ||
- | GPU=1 to build with CUDA to accelerate by using GPU (CUDA should be in / | ||
- | CUDNN=1 to build with cuDNN v5-v7 to accelerate training by using GPU (cuDNN should be in / | ||
- | CUDNN_HALF=1 to build for Tensor Cores (on Titan V / Tesla V100 / DGX-2 and later) speedup Detection 3x, Training 2x | ||
- | OPENCV=1 to build with OpenCV 3.x/2.4.x - allows to detect on video files and video streams from network cameras or web-cams | ||
- | DEBUG=1 to bould debug version of Yolo | ||
- | OPENMP=1 to build with OpenMP support to accelerate Yolo by using multi-core CPU | ||
- | LIBSO=1 to build a library darknet.so and binary runable file uselib that uses this library. Or you can try to run so LD_LIBRARY_PATH=./: | ||
- | </ | ||
- | |||
- | ===make=== | ||
- | do make in the darknet directory | ||
- | |||
- | ===Run test=== | ||
- | ./darknet detector test ./ | ||
- | |||
- | ===== DARKFLOW ===== | ||
- | ==== Avec ou sans GPU==== | ||
- | * **[[https:// | ||
- | ====Dépendances==== | ||
- | Sur debian 10 buster | ||
- | Requis: | ||
- | * python 3.7 | ||
- | * tensorflow 1.0 | ||
- | * opencv 3 | ||
- | |||
- | sudo pip3 install tensorflow | ||
- | sudo pip3 install numpy | ||
- | sudo pip3 install opencv | ||
- | sudo pip3 install | ||
- | | ||
- | Version: | ||
- | * tensorflow 1.13.1 | ||
- | * opencv 4.0.0 | ||
- | ====Bazar ==== | ||
- | Chemins relatifs depuis le dossier root des sources: | ||
- | Dans le fichier flow, corriger python en python3 | ||
- | #! / | ||
+ | =====Les étapes suivantes===== | ||
+ | * **[[yolo_sans_carte_graphique|Yolo Darknet sans carte graphique]]** | ||
+ | * **[[yolo_darknet_sur_un_portable_optimus|Yolo Darknet sur un portable Optimus]]** | ||
- | {{tag>ia semaphore}} | + | {{tag> ia sb semaphore |
yolo_avec_mes_propres_images.1552501632.txt.gz · Dernière modification : 2019/03/13 18:27 de serge