l_intelligence_du_semaphore
Différences
Ci-dessous, les différences entre deux révisions de la page.
Les deux révisions précédentesRévision précédenteProchaine révision | Révision précédenteProchaine révisionLes deux révisions suivantes | ||
l_intelligence_du_semaphore [2019/02/08 15:28] – [Sigmoïd prime] serge | l_intelligence_du_semaphore [2020/02/04 16:27] – ↷ Liens modifiés en raison d'un déplacement. serge | ||
---|---|---|---|
Ligne 1: | Ligne 1: | ||
====== L' | ====== L' | ||
+ | <WRAP center round box 80% centeralign> | ||
+ | **{{tagpage> | ||
+ | </ | ||
+ | <WRAP center round box 60% centeralign> | ||
+ | C'est quoi un sémaphore ? | ||
+ | {{ youtube> | ||
+ | {{ chappe.jpeg? | ||
+ | </ | ||
<WRAP center round box 60% centeralign> | <WRAP center round box 60% centeralign> | ||
- | **{{tagpage> | + | **Calcul de [[Le sémaphore avec TensorFlow|Le sémaphore avec TensorFlow]] |
</ | </ | ||
+ | =====Les sources sur GitHub===== | ||
+ | * **[[https:// | ||
+ | =====Les images utilisées pour l' | ||
+ | ====Images sorties de Blender==== | ||
+ | <WRAP group> | ||
+ | <WRAP third column> | ||
+ | {{: | ||
+ | </ | ||
+ | <WRAP third column> | ||
+ | {{: | ||
+ | </ | ||
+ | <WRAP third column> | ||
+ | {{: | ||
+ | </ | ||
+ | </ | ||
+ | ====Images adaptées pour l' | ||
+ | L' | ||
+ | <WRAP group> | ||
+ | <WRAP third column> | ||
+ | {{media_01: | ||
+ | </ | ||
+ | <WRAP third column> | ||
+ | {{media_01: | ||
+ | </ | ||
+ | <WRAP third column> | ||
+ | {{media_01: | ||
+ | </ | ||
+ | </ | ||
+ | |||
===== Des maths ! ==== | ===== Des maths ! ==== | ||
====Relu Rectifier neural networks==== | ====Relu Rectifier neural networks==== | ||
+ | {{ relu.jpg? | ||
* **[[https:// | * **[[https:// | ||
<code python> | <code python> | ||
Ligne 26: | Ligne 64: | ||
<code python> | <code python> | ||
def relu_prime(z): | def relu_prime(z): | ||
- | """ | + | """ |
- | | + | |
- | Une fonction | + | Une fonction indicatrice, |
- | | + | C'est donc la fonction H (discontinue en 0) prenant la valeur 1 pour tous les réels positifs et la valeur 0 pour les réels strictement négatifs. |
- | | + | |
- | C'est donc la fonction H (discontinue en 0) prenant la valeur 1 pour tous | + | |
- | | + | |
""" | """ | ||
return np.asarray(z > 0, dtype=np.float32) | return np.asarray(z > 0, dtype=np.float32) | ||
</ | </ | ||
====Sigmoïd==== | ====Sigmoïd==== | ||
+ | {{ sigmoid.png? | ||
* **[[https:// | * **[[https:// | ||
- | Elle représente la fonction de répartition de la loi logistique. Elle est souvent utilisée dans les réseaux de neurones parce qu' | + | Elle représente la fonction de répartition de la loi logistique. Elle est souvent utilisée dans les réseaux de neurones parce qu' |
<code python> | <code python> | ||
def sigmoid(x): | def sigmoid(x): | ||
- | """ | + | """ |
- | https://fr.wikipedia.org/ | + | |
return 1 / (1 + np.exp(-x)) | return 1 / (1 + np.exp(-x)) | ||
</ | </ | ||
Ligne 56: | Ligne 91: | ||
* **[[https:// | * **[[https:// | ||
L' | L' | ||
- | ===== Réseau de neurones Perceptron multicouches | ||
- | Un réseau | + | ====Diagonale |
+ | {{ media_01: | ||
+ | numpy.eye(N, | ||
+ | | ||
+ | Return a 2-D array with ones on the diagonal and zeros elsewhere. | ||
+ | Matrice ou la sortie est idéale: le 1 correspond à entée[i] = sortie[i], et entée[j], | ||
- | =====Code qui marche à 96 %===== | + | ====Initialisation de X. Glorot et He==== |
- | La totalité du projet est à **[[https://github.com/sergeLabo/semaphore|Semaphore]]** sur Github, et **[[jeu_du_semaphore_dans_le_blender_game_engine|Jeu du sémaphore dans le Blender Game Engine]]** | + | X = Xavier |
+ | | ||
- | <code python> | + | ===== Réseau de neurones Perceptron multicouches |
- | #!/usr/bin/env python3 | + | * **[[https://fr.wikipedia.org/wiki/ |
- | # -*- coding: UTF-8 -*- | + | Un réseau de neurones Perceptron multicouches est un type de réseau dont l' |
- | import shutil | ||
- | import numpy as np | ||
- | import cv2 | ||
- | from pymultilame import MyTools | ||
+ | ===== Réseau de neurones Convolutif ===== | ||
+ | * **[[https:// | ||
+ | Un réseau de neurones Convolutif est un type de réseau de neurones artificiels dans lequel le motif de connexion entre les neurones est inspiré par le cortex visuel des animaux. Actuellement, | ||
- | def sigmoid(x): | + | Ce type de réseau |
- | """ | + | |
- | https://fr.wikipedia.org/ | + | |
- | """ | + | |
- | return 1 / (1 + np.exp(-x)) | + | =====Réseau de neurones Perceptron multicouches en python===== |
+ | **Du code expliqué avec beaucoup d' | ||
+ | Enfin, là c'est de l' | ||
- | def sigmoid_prime(z): | + | ====Notre réseau==== |
- | """ | + | **Une colonne |
- | soit sigmoid' | + | |
- | """ | + | |
- | return z * (1 - z) | + | {{ media_01: |
- | def relu(x): | + | La totalité du projet est à **[[https:// |
- | """ | + | |
- | -1 > 0 | + | |
- | 1 > 1 | + | |
- | | + | |
- | In the context of artificial neural networks, the rectifier is an | + | ====Installation==== |
- | | + | Installation de pip3: |
- | https://bit.ly/2HyT4ZO sur Wikipedia en. | + | sudo apt install pip3 |
- | """ | + | Installation de numpy et opencv |
+ | sudo pip3 install opencv numpy | ||
+ | Il faut installer mon [[pymultilame|module python perso]] disponible sur Github | ||
+ | sudo pip3 install -e git+https://github.com/sergeLabo/ | ||
+ | |||
+ | ====Le script==== | ||
+ | <file python ia.py> | ||
+ | # | ||
+ | # -*- coding: UTF-8 -*- | ||
- | return | + | import shutil |
+ | import numpy as np | ||
+ | import cv2 | ||
+ | from pymultilame import MyTools | ||
- | def relu_prime(z): | + | def sigmoid(x): return |
- | """ | + | def sigmoid_prime(z): return z * (1 - z) |
- | + | def relu(x): return np.maximum(0, x) | |
- | La fonction de Heaviside | + | def relu_prime(z): |
- | | + | |
- | Une fonction fonction indicatrice, est une fonction définie sur un | + | |
- | | + | |
- | de tout élément de E. | + | |
- | """ | + | |
- | + | ||
- | | + | |
class SemaphoreIA: | class SemaphoreIA: | ||
Ligne 144: | Ligne 180: | ||
def training(self): | def training(self): | ||
- | """ | + | """ |
print(" | print(" | ||
Ligne 158: | Ligne 194: | ||
# Initialisation des poids des nodes, pour ne pas à être à 0 | # Initialisation des poids des nodes, pour ne pas à être à 0 | ||
# Construit 3 matrices (100x1600, 100x100, 27x100) | # Construit 3 matrices (100x1600, 100x100, 27x100) | ||
- | # /np.sqrt() résultat expérimental de l' | + | # /np.sqrt() résultat expérimental de l' |
weight_list = [np.random.randn(self.layers[k+1], | weight_list = [np.random.randn(self.layers[k+1], | ||
| | ||
Ligne 168: | Ligne 204: | ||
# Affichage pour distraire les mangalore | # Affichage pour distraire les mangalore | ||
- | # TODO: mettre ça dans un truc à l'ext de cette méthode | ||
if i % 10000 == 0: | if i % 10000 == 0: | ||
print(i, nombre_lettre) | print(i, nombre_lettre) | ||
Ligne 187: | Ligne 222: | ||
# self.activations = non linéaire sinon sortie fonction linéaire de l' | # self.activations = non linéaire sinon sortie fonction linéaire de l' | ||
- | # imite le seuil d' | + | # imite le seuil d' |
vecteur_colonne = self.activations[k](z) | vecteur_colonne = self.activations[k](z) | ||
Ligne 194: | Ligne 229: | ||
# Retro propagation, | # Retro propagation, | ||
delta_a = vecteur_colonne - diagonale[:, | delta_a = vecteur_colonne - diagonale[:, | ||
- | # Parcours des nodes en sens inverse pour corriger | + | # Parcours des nodes en sens inverse pour corriger |
# les poids en fonction de l' | # les poids en fonction de l' | ||
# Descente du Gradient stochastique | # Descente du Gradient stochastique | ||
Ligne 233: | Ligne 268: | ||
success += 1 | success += 1 | ||
else: | else: | ||
- | # TODO: mettre ça dans un truc à l'ext de cette méthode | ||
if self.failed: | if self.failed: | ||
self.write_failed(img, | self.write_failed(img, | ||
Ligne 268: | Ligne 302: | ||
for i in range(5): | for i in range(5): | ||
- | print(" | ||
learningrate = 0.022 | learningrate = 0.022 | ||
failed = 0 | failed = 0 | ||
Ligne 275: | Ligne 308: | ||
resp = sia.testing() | resp = sia.testing() | ||
print(" | print(" | ||
+ | </ | ||
+ | |||
- | </ | + | ===== Etape suivante: YOLO Darknet===== |
+ | **[[computer_vision_and_pattern_recognition_segmentation_d_image|Computer Vision and Pattern Recognition Mask R-CNN]]** | ||
- | {{tag> | + | {{tag> |
l_intelligence_du_semaphore.txt · Dernière modification : 2020/12/27 15:07 de serge