l_intelligence_du_semaphore
Différences
Ci-dessous, les différences entre deux révisions de la page.
Les deux révisions précédentesRévision précédenteProchaine révision | Révision précédenteProchaine révisionLes deux révisions suivantes | ||
l_intelligence_du_semaphore [2019/02/12 11:04] – [Idées de choses à faire] bigMax | l_intelligence_du_semaphore [2020/09/05 10:40] – [La même chose avec Cupy ou Tensorflow] serge | ||
---|---|---|---|
Ligne 1: | Ligne 1: | ||
====== L' | ====== L' | ||
+ | <WRAP center round box 80% centeralign> | ||
+ | **{{tagpage> | ||
+ | </ | ||
+ | <WRAP center round box 60% centeralign> | ||
+ | C'est quoi un sémaphore ? | ||
+ | {{ youtube> | ||
+ | {{ chappe.jpeg? | ||
+ | </ | ||
<WRAP center round box 60% centeralign> | <WRAP center round box 60% centeralign> | ||
- | **{{tagpage>ia|Toutes les pages sur L'Intelligence Artificielle}}** | + | **Calcul de [[Le sémaphore avec TensorFlow|Le sémaphore avec TensorFlow]] sur GPU au lieu du CPU avec TensorFlow** |
+ | </ | ||
+ | =====Les sources sur GitHub===== | ||
+ | * **[[https:// | ||
+ | =====Les images utilisées pour l' | ||
+ | ====Images sorties de Blender==== | ||
+ | <WRAP group> | ||
+ | <WRAP third column> | ||
+ | {{media_03: | ||
+ | </WRAP> | ||
+ | <WRAP third column> | ||
+ | {{media_03: | ||
+ | </ | ||
+ | <WRAP third column> | ||
+ | {{media_03: | ||
+ | </ | ||
+ | </ | ||
+ | ====Images adaptées pour l' | ||
+ | L'optimisation a montré que la meilleure solution est avec ce type d' | ||
+ | <WRAP group> | ||
+ | <WRAP third column> | ||
+ | {{media_01: | ||
+ | </ | ||
+ | <WRAP third column> | ||
+ | {{media_01: | ||
+ | </ | ||
+ | <WRAP third column> | ||
+ | {{media_01: | ||
+ | </ | ||
</ | </ | ||
+ | |||
===== Des maths ! ==== | ===== Des maths ! ==== | ||
====Relu Rectifier neural networks==== | ====Relu Rectifier neural networks==== | ||
+ | {{ relu.jpg? | ||
* **[[https:// | * **[[https:// | ||
<code python> | <code python> | ||
Ligne 26: | Ligne 64: | ||
<code python> | <code python> | ||
def relu_prime(z): | def relu_prime(z): | ||
- | """ | + | """ |
- | | + | |
- | Une fonction | + | Une fonction indicatrice, |
- | | + | C'est donc la fonction H (discontinue en 0) prenant la valeur 1 pour tous les réels positifs et la valeur 0 pour les réels strictement négatifs. |
- | | + | |
- | C'est donc la fonction H (discontinue en 0) prenant la valeur 1 pour tous | + | |
- | | + | |
""" | """ | ||
return np.asarray(z > 0, dtype=np.float32) | return np.asarray(z > 0, dtype=np.float32) | ||
</ | </ | ||
====Sigmoïd==== | ====Sigmoïd==== | ||
+ | {{ sigmoid.png? | ||
* **[[https:// | * **[[https:// | ||
Elle représente la fonction de répartition de la loi logistique. Elle est souvent utilisée dans les réseaux de neurones parce qu' | Elle représente la fonction de répartition de la loi logistique. Elle est souvent utilisée dans les réseaux de neurones parce qu' | ||
<code python> | <code python> | ||
def sigmoid(x): | def sigmoid(x): | ||
- | """ | + | """ |
- | https://fr.wikipedia.org/ | + | |
return 1 / (1 + np.exp(-x)) | return 1 / (1 + np.exp(-x)) | ||
</ | </ | ||
Ligne 58: | Ligne 93: | ||
====Diagonale de 1==== | ====Diagonale de 1==== | ||
- | {{ :2019_02: | + | {{ media_01: |
- | numpy.eye(N, | + | |
+ | numpy.eye(N, | ||
+ | | ||
Return a 2-D array with ones on the diagonal and zeros elsewhere. | Return a 2-D array with ones on the diagonal and zeros elsewhere. | ||
Matrice ou la sortie est idéale: le 1 correspond à entée[i] = sortie[i], et entée[j], | Matrice ou la sortie est idéale: le 1 correspond à entée[i] = sortie[i], et entée[j], | ||
Ligne 71: | Ligne 108: | ||
Un réseau de neurones Perceptron multicouches est un type de réseau dont l' | Un réseau de neurones Perceptron multicouches est un type de réseau dont l' | ||
- | ====Notre réseau==== | ||
- | Réseau de neurones: **Une colonne de 1600 en entrée, 2 nodes de 100, une sortie de 27 caractères.** | ||
===== Réseau de neurones Convolutif ===== | ===== Réseau de neurones Convolutif ===== | ||
- | * **[[ https:// | + | * **[[https:// |
Un réseau de neurones Convolutif est un type de réseau de neurones artificiels dans lequel le motif de connexion entre les neurones est inspiré par le cortex visuel des animaux. Actuellement, | Un réseau de neurones Convolutif est un type de réseau de neurones artificiels dans lequel le motif de connexion entre les neurones est inspiré par le cortex visuel des animaux. Actuellement, | ||
- | =====Du code expliqué avec beaucoup d' | + | Ce type de réseau est développé avec [[yolo_avec_mes_propres_images|Yolo Darknet Préparation de mes propres images]] puis [[yolo_sans_carte_graphique|Yolo Darknet sans carte graphique]] et enfin [[yolo_darknet_sur_un_portable_optimus|Yolo Darknet sur un portable Optimus]]. |
+ | |||
+ | =====Réseau de neurones Perceptron multicouches en python===== | ||
+ | **Du code expliqué avec beaucoup d' | ||
Enfin, là c'est de l' | Enfin, là c'est de l' | ||
- | La totalité du projet est à **[[https:// | + | ====Notre réseau==== |
+ | **Une colonne de 1600 en entrée, 2 nodes de 100, une sortie de 27 caractères.** | ||
- | <code python> | + | {{ media_01: |
+ | |||
+ | La totalité du projet est à **[[https:// | ||
+ | |||
+ | ====Installation==== | ||
+ | Installation de pip3: | ||
+ | sudo apt install pip3 | ||
+ | Installation de numpy et opencv | ||
+ | sudo pip3 install opencv numpy | ||
+ | Il faut installer mon [[pymultilame|module python perso]] disponible sur Github | ||
+ | sudo pip3 install -e git+https:// | ||
+ | |||
+ | ====Le script==== | ||
+ | <file python | ||
# | # | ||
# -*- coding: UTF-8 -*- | # -*- coding: UTF-8 -*- | ||
Ligne 128: | Ligne 180: | ||
def training(self): | def training(self): | ||
- | """ | + | """ |
print(" | print(" | ||
Ligne 142: | Ligne 194: | ||
# Initialisation des poids des nodes, pour ne pas à être à 0 | # Initialisation des poids des nodes, pour ne pas à être à 0 | ||
# Construit 3 matrices (100x1600, 100x100, 27x100) | # Construit 3 matrices (100x1600, 100x100, 27x100) | ||
- | # /np.sqrt() résultat expérimental de l' | + | # /np.sqrt() résultat expérimental de l' |
weight_list = [np.random.randn(self.layers[k+1], | weight_list = [np.random.randn(self.layers[k+1], | ||
| | ||
Ligne 152: | Ligne 204: | ||
# Affichage pour distraire les mangalore | # Affichage pour distraire les mangalore | ||
- | # TODO: mettre ça dans un truc à l'ext de cette méthode | ||
if i % 10000 == 0: | if i % 10000 == 0: | ||
print(i, nombre_lettre) | print(i, nombre_lettre) | ||
Ligne 171: | Ligne 222: | ||
# self.activations = non linéaire sinon sortie fonction linéaire de l' | # self.activations = non linéaire sinon sortie fonction linéaire de l' | ||
- | # imite le seuil d' | + | # imite le seuil d' |
vecteur_colonne = self.activations[k](z) | vecteur_colonne = self.activations[k](z) | ||
Ligne 178: | Ligne 229: | ||
# Retro propagation, | # Retro propagation, | ||
delta_a = vecteur_colonne - diagonale[:, | delta_a = vecteur_colonne - diagonale[:, | ||
- | # Parcours des nodes en sens inverse pour corriger | + | # Parcours des nodes en sens inverse pour corriger |
# les poids en fonction de l' | # les poids en fonction de l' | ||
# Descente du Gradient stochastique | # Descente du Gradient stochastique | ||
Ligne 217: | Ligne 268: | ||
success += 1 | success += 1 | ||
else: | else: | ||
- | # TODO: mettre ça dans un truc à l'ext de cette méthode | ||
if self.failed: | if self.failed: | ||
self.write_failed(img, | self.write_failed(img, | ||
Ligne 252: | Ligne 302: | ||
for i in range(5): | for i in range(5): | ||
- | print(" | ||
learningrate = 0.022 | learningrate = 0.022 | ||
failed = 0 | failed = 0 | ||
Ligne 259: | Ligne 308: | ||
resp = sia.testing() | resp = sia.testing() | ||
print(" | print(" | ||
+ | </ | ||
- | </ | + | =====La même chose avec Cupy ou Tensorflow===== |
- | + | * **[[cupy_vs_numpy|Cupy: calcul numpy avec CUDA]]** | |
- | ===== Idées de choses à faire ===== | + | * **[[le_semaphore_avec_tensorflow|Le |
- | * Essayer d' | + | |
- | | + | |
- | | + | |
- | | + | |
- | + | ||
- | ==== Idée directrice ==== | + | |
- | Réaliser 2 apprentissages indépendants pour faciliter l' | + | |
- | \\ \\ | + | |
- | Je vois plusieurs avantages : | + | |
- | | + | |
- | * Une fois la première reconnaissance réalisé il est facile de recadrer l' | + | |
- | | + | |
- | | + | |
- | * Un filtrage intelligent pourrait comprendre qu' | + | |
- | ==== Petit réseau convolutif ==== | + | |
- | * En entré, il faudrait une première couche identique, et une deuxième couche qui n'est pas relié à tous les neurones de la première couche, mais uniquement à un ensemble représentant une tuile. Il faut donc modifier l'algo actuel qui relie toujours tous les neurones de la couche N-1 à tous les neurones de la couche N. | + | |
- | * Comment paver l' | + | |
- | + | ||
- | ==== Reconnaître les coordonnées du sémaphore ==== | + | |
- | * Il faut lors de la génération des images ajouter une méta information dans l' | + | |
- | * Quels types de coordonnées ? Les coordonées de 2 angles opposés ? les coordonées d'un angle et 2 distances ? autre ? | + | |
- | * Comment modifier la sortie du réseau de neurones pour reconnaître le couple (position du sémaphore, valeur) ? | + | |
- | + | ||
- | ==== Reconnaître la forme du sémaphore ==== | + | |
- | * Plutôt que de tagger l' | + | |
- | | + | |
- | | + | |
- | ==== Reconnaître plusieurs sémaphores | + | ===== Etape suivante: YOLO Darknet===== |
- | * Comment modifier la sortie du réseau de neurones pour reconnaître plusieurs couples (position, forme) ? | + | **[[computer_vision_and_pattern_recognition_segmentation_d_image|Computer Vision and Pattern Recognition Mask R-CNN]]** |
- | {{tag> | + | {{tag> |
l_intelligence_du_semaphore.txt · Dernière modification : 2020/12/27 15:07 de serge