l_intelligence_du_semaphore
Différences
Ci-dessous, les différences entre deux révisions de la page.
Les deux révisions précédentesRévision précédenteProchaine révision | Révision précédenteProchaine révisionLes deux révisions suivantes | ||
l_intelligence_du_semaphore [2019/02/08 15:29] – [Code qui marche à 96 %] serge | l_intelligence_du_semaphore [2020/09/05 10:38] – [Le script] serge | ||
---|---|---|---|
Ligne 1: | Ligne 1: | ||
====== L' | ====== L' | ||
+ | <WRAP center round box 80% centeralign> | ||
+ | **{{tagpage> | ||
+ | </ | ||
+ | <WRAP center round box 60% centeralign> | ||
+ | C'est quoi un sémaphore ? | ||
+ | {{ youtube> | ||
+ | {{ chappe.jpeg? | ||
+ | </ | ||
<WRAP center round box 60% centeralign> | <WRAP center round box 60% centeralign> | ||
- | **{{tagpage>ia|Toutes les pages sur L'Intelligence Artificielle}}** | + | **Calcul de [[Le sémaphore avec TensorFlow|Le sémaphore avec TensorFlow]] sur GPU au lieu du CPU avec TensorFlow** |
+ | </ | ||
+ | =====Les sources sur GitHub===== | ||
+ | * **[[https:// | ||
+ | =====Les images utilisées pour l' | ||
+ | ====Images sorties de Blender==== | ||
+ | <WRAP group> | ||
+ | <WRAP third column> | ||
+ | {{media_03: | ||
+ | </WRAP> | ||
+ | <WRAP third column> | ||
+ | {{media_03: | ||
+ | </ | ||
+ | <WRAP third column> | ||
+ | {{media_03: | ||
+ | </ | ||
+ | </ | ||
+ | ====Images adaptées pour l' | ||
+ | L'optimisation a montré que la meilleure solution est avec ce type d' | ||
+ | <WRAP group> | ||
+ | <WRAP third column> | ||
+ | {{media_01: | ||
+ | </ | ||
+ | <WRAP third column> | ||
+ | {{media_01: | ||
+ | </ | ||
+ | <WRAP third column> | ||
+ | {{media_01: | ||
+ | </ | ||
</ | </ | ||
+ | |||
===== Des maths ! ==== | ===== Des maths ! ==== | ||
====Relu Rectifier neural networks==== | ====Relu Rectifier neural networks==== | ||
+ | {{ relu.jpg? | ||
* **[[https:// | * **[[https:// | ||
<code python> | <code python> | ||
Ligne 26: | Ligne 64: | ||
<code python> | <code python> | ||
def relu_prime(z): | def relu_prime(z): | ||
- | """ | + | """ |
- | | + | |
- | Une fonction | + | Une fonction indicatrice, |
- | | + | C'est donc la fonction H (discontinue en 0) prenant la valeur 1 pour tous les réels positifs et la valeur 0 pour les réels strictement négatifs. |
- | | + | |
- | C'est donc la fonction H (discontinue en 0) prenant la valeur 1 pour tous | + | |
- | | + | |
""" | """ | ||
return np.asarray(z > 0, dtype=np.float32) | return np.asarray(z > 0, dtype=np.float32) | ||
</ | </ | ||
====Sigmoïd==== | ====Sigmoïd==== | ||
+ | {{ sigmoid.png? | ||
* **[[https:// | * **[[https:// | ||
- | Elle représente la fonction de répartition de la loi logistique. Elle est souvent utilisée dans les réseaux de neurones parce qu' | + | Elle représente la fonction de répartition de la loi logistique. Elle est souvent utilisée dans les réseaux de neurones parce qu' |
<code python> | <code python> | ||
def sigmoid(x): | def sigmoid(x): | ||
- | """ | + | """ |
- | https://fr.wikipedia.org/ | + | |
return 1 / (1 + np.exp(-x)) | return 1 / (1 + np.exp(-x)) | ||
</ | </ | ||
Ligne 56: | Ligne 91: | ||
* **[[https:// | * **[[https:// | ||
L' | L' | ||
+ | |||
+ | ====Diagonale de 1==== | ||
+ | {{ media_01: | ||
+ | |||
+ | numpy.eye(N, | ||
+ | | ||
+ | Return a 2-D array with ones on the diagonal and zeros elsewhere. | ||
+ | Matrice ou la sortie est idéale: le 1 correspond à entée[i] = sortie[i], et entée[j], | ||
+ | |||
+ | ====Initialisation de X. Glorot et He==== | ||
+ | X = Xavier = prénom | ||
+ | * **[[http:// | ||
+ | |||
===== Réseau de neurones Perceptron multicouches | ===== Réseau de neurones Perceptron multicouches | ||
+ | * **[[https:// | ||
+ | Un réseau de neurones Perceptron multicouches est un type de réseau dont l' | ||
- | Un réseau de neurones Perceptron multicouches est un type de réseau de neurones artificiels dans lequel le motif de connexion entre les neurones est inspiré par le cortex visuel des animaux. | ||
+ | ===== Réseau de neurones Convolutif ===== | ||
+ | * **[[https:// | ||
+ | Un réseau de neurones Convolutif est un type de réseau de neurones artificiels dans lequel le motif de connexion entre les neurones est inspiré par le cortex visuel des animaux. Actuellement, | ||
- | =====Code qui marche à 96 %===== | + | Ce type de réseau |
- | La totalité du projet | + | |
- | <code python> | + | =====Réseau de neurones Perceptron multicouches en python===== |
+ | **Du code expliqué avec beaucoup d' | ||
+ | Enfin, là c'est de l' | ||
+ | |||
+ | ====Notre réseau==== | ||
+ | **Une colonne de 1600 en entrée, 2 nodes de 100, une sortie de 27 caractères.** | ||
+ | |||
+ | {{ media_01: | ||
+ | |||
+ | La totalité du projet est à **[[https:// | ||
+ | |||
+ | ====Installation==== | ||
+ | Installation de pip3: | ||
+ | sudo apt install pip3 | ||
+ | Installation de numpy et opencv | ||
+ | sudo pip3 install opencv numpy | ||
+ | Il faut installer mon [[pymultilame|module python perso]] disponible sur Github | ||
+ | sudo pip3 install -e git+https:// | ||
+ | |||
+ | ====Le script==== | ||
+ | < | ||
# | # | ||
# -*- coding: UTF-8 -*- | # -*- coding: UTF-8 -*- | ||
Ligne 109: | Ligne 180: | ||
def training(self): | def training(self): | ||
- | """ | + | """ |
print(" | print(" | ||
Ligne 123: | Ligne 194: | ||
# Initialisation des poids des nodes, pour ne pas à être à 0 | # Initialisation des poids des nodes, pour ne pas à être à 0 | ||
# Construit 3 matrices (100x1600, 100x100, 27x100) | # Construit 3 matrices (100x1600, 100x100, 27x100) | ||
- | # /np.sqrt() résultat expérimental de l' | + | # /np.sqrt() résultat expérimental de l' |
weight_list = [np.random.randn(self.layers[k+1], | weight_list = [np.random.randn(self.layers[k+1], | ||
| | ||
Ligne 133: | Ligne 204: | ||
# Affichage pour distraire les mangalore | # Affichage pour distraire les mangalore | ||
- | # TODO: mettre ça dans un truc à l'ext de cette méthode | ||
if i % 10000 == 0: | if i % 10000 == 0: | ||
print(i, nombre_lettre) | print(i, nombre_lettre) | ||
Ligne 152: | Ligne 222: | ||
# self.activations = non linéaire sinon sortie fonction linéaire de l' | # self.activations = non linéaire sinon sortie fonction linéaire de l' | ||
- | # imite le seuil d' | + | # imite le seuil d' |
vecteur_colonne = self.activations[k](z) | vecteur_colonne = self.activations[k](z) | ||
Ligne 159: | Ligne 229: | ||
# Retro propagation, | # Retro propagation, | ||
delta_a = vecteur_colonne - diagonale[:, | delta_a = vecteur_colonne - diagonale[:, | ||
- | # Parcours des nodes en sens inverse pour corriger | + | # Parcours des nodes en sens inverse pour corriger |
# les poids en fonction de l' | # les poids en fonction de l' | ||
# Descente du Gradient stochastique | # Descente du Gradient stochastique | ||
Ligne 198: | Ligne 268: | ||
success += 1 | success += 1 | ||
else: | else: | ||
- | # TODO: mettre ça dans un truc à l'ext de cette méthode | ||
if self.failed: | if self.failed: | ||
self.write_failed(img, | self.write_failed(img, | ||
Ligne 233: | Ligne 302: | ||
for i in range(5): | for i in range(5): | ||
- | print(" | ||
learningrate = 0.022 | learningrate = 0.022 | ||
failed = 0 | failed = 0 | ||
Ligne 240: | Ligne 308: | ||
resp = sia.testing() | resp = sia.testing() | ||
print(" | print(" | ||
+ | </ | ||
+ | |||
+ | =====La même chose avec Cupy ou Tensorflow===== | ||
+ | |||
- | </ | + | ===== Etape suivante: YOLO Darknet===== |
+ | **[[computer_vision_and_pattern_recognition_segmentation_d_image|Computer Vision and Pattern Recognition Mask R-CNN]]** | ||
- | {{tag> | + | {{tag> |
l_intelligence_du_semaphore.txt · Dernière modification : 2020/12/27 15:07 de serge