Outils pour utilisateurs

Outils du site


activity_recognition_from_accelerometer_data_set

Différences

Ci-dessous, les différences entre deux révisions de la page.

Lien vers cette vue comparative

Les deux révisions précédentesRévision précédente
Prochaine révision
Révision précédente
activity_recognition_from_accelerometer_data_set [2020/09/30 17:58] – [doc] sergeactivity_recognition_from_accelerometer_data_set [2021/12/14 09:50] (Version actuelle) – ↷ Liens modifiés en raison d'un déplacement. 62.210.73.184
Ligne 2: Ligne 2:
  
 <WRAP center round box 60% centeralign> <WRAP center round box 60% centeralign>
-**{{tagpage>ia|Intelligence Artificielle}}**+**[[intelligence_artificielle|Intelligence Artificielle]]**
 </WRAP> </WRAP>
 +
 +Votre mission: **Reconnaître l'activité du porteur d'un Accéléromètre.**
 + 
 +Cette page fait suite à [[detecting_heavy_drinking|Detecting Heavy Drinking]] qui n'avait pas abouti.
 +
 =====Source des datas===== =====Source des datas=====
   * **[[https://archive.ics.uci.edu/ml/datasets/Activity+Recognition+from+Single+Chest-Mounted+Accelerometer#|Activity Recognition from Single Chest-Mounted Accelerometer Data Set]]**   * **[[https://archive.ics.uci.edu/ml/datasets/Activity+Recognition+from+Single+Chest-Mounted+Accelerometer#|Activity Recognition from Single Chest-Mounted Accelerometer Data Set]]**
  
-=====Documention=====+====Activités==== 
 +  - Working at Computer 
 +  - Standing Up, Walking and Going updown stairs 
 +  - Standing 
 +  - Walking 
 +  - Going UpDown Stairs 
 +  - Walking and Talking with Someone 
 +  - Talking while Standing 
 +=====Documentation=====
  
   * **[[https://www.researchgate.net/publication/257132489_BeaStreamer-v0.1_a_new_platform_for_Multi-Sensors_Data_Acquisition_in_Wearable_Computing_Applications?ev=prf_pub|BeaStreamer-v0.1: a new platform for Multi-Sensors Data Acquisition in Wearable Computing Applications]]**   * **[[https://www.researchgate.net/publication/257132489_BeaStreamer-v0.1_a_new_platform_for_Multi-Sensors_Data_Acquisition_in_Wearable_Computing_Applications?ev=prf_pub|BeaStreamer-v0.1: a new platform for Multi-Sensors Data Acquisition in Wearable Computing Applications]]**
Ligne 15: Ligne 28:
   * **[[https://www.researchgate.net/publication/227192676_Personalization_and_user_verification_in_wearable_systems_using_biometric_walking_patterns?ev=prf_pub|Personalization and user verification in wearable systems using biometric walking patterns ]]**   * **[[https://www.researchgate.net/publication/227192676_Personalization_and_user_verification_in_wearable_systems_using_biometric_walking_patterns?ev=prf_pub|Personalization and user verification in wearable systems using biometric walking patterns ]]**
                
 +===== Source sur GitHub =====
 +  * **[[https://github.com/sergeLabo/activity| sergeLabo/activity ]]**
 +
 +  sudo pip3 install numpy matplotlib scipy tensorflow
 +  
 +Sur xubuntu 20.04, pb avec cublas (qui n'est pas là où il faudrait, erreur nvidia), dans le dossier du projet:
 +  export LD_LIBRARY_PATH=/usr/local/cuda-10.2/lib64${LD_LIBRARY_PATH:+:${LD_LIBRARY_PATH}}
 +  python3 main_keras_clean_smooth.py
 +=====Installation et matériel requis=====
 +Une carte graphique n'est pas nécessaire, au contraire une carte augmente de beaucoup le temps de epochs de keras.
 +
 +Il faut installer au moins: numpy, matplotlib, scipy, tensorflow
 +
 +Ce projet a été développé sur Debian 10 Buster Mate, et testé aussi sur Xubuntu 18.04 avec [[compilation_de_oepncv_avec_cuda_sur_ubuntu|Cuda]].
 =====Représentation des datas===== =====Représentation des datas=====
  
-{{:media_10:activity_1.png?300|}}{{:media_10:activity_2.png?300|}}{{:media_10:activity_3.png?300|}}{{:media_10:activity_4.png?300|}}{{:media_10:activity_5.png?300|}}{{:media_10:activity_6.png?300|}}{{:media_10:activity_7.png?300|}}{{:media_10:activity_8.png?300|}}{{:media_10:activity_9.png?300|}}{{:media_10:activity_10.png?300|}}{{:media_10:activity_11.png?300|}}{{:media_10:activity_12.png?300|}}{{:media_10:activity_13.png?300|}}{{:media_10:activity_14.png?300|}}{{:media_10:activity_15.png?300|}}+{{ :media_10:activity_1.png?600 |}} 
 +{{:media_10:activity_2.png?120|}}{{:media_10:activity_3.png?120|}}{{:media_10:activity_4.png?120|}}{{:media_10:activity_5.png?120|}}{{:media_10:activity_6.png?120|}}{{:media_10:activity_7.png?120|}}{{:media_10:activity_8.png?120|}}{{:media_10:activity_9.png?120|}}{{:media_10:activity_10.png?120|}}{{:media_10:activity_11.png?120|}}{{:media_10:activity_12.png?120|}}{{:media_10:activity_13.png?120|}}{{:media_10:activity_14.png?120|}}{{:media_10:activity_15.png?120|}}
  
-        +=====Recherche des zones valable en Input de Keras===== 
-{{tag>ia python python3 realisations_logicielles}}+====Quelle est la zone des datas à conserver en Input ?==== 
 +=== Définition des bornes avec des sliders === 
 + 
 +{{ :media_10:activ_1human_1.png?800 |}} 
 + 
 +{{:media_10:activ_1human_2.png?220|}}{{:media_10:activ_1human_3.png?220|}}{{:media_10:activ_1human_4.png?220|}}{{:media_10:activ_1human_5.png?220|}} 
 + 
 +==== Application d'un filtre: Algorithme de Savitzky-Golay ==== 
 +  * **[[https://fr.wikipedia.org/wiki/Algorithme_de_Savitzky-Golay|Algorithme de Savitzky-Golay]]**  
 +  * **[[https://docs.scipy.org/doc/scipy/reference/generated/scipy.signal.savgol_filter.html?highlight=savgol_filter#scipy.signal.savgol_filter|scipy.signal.savgol_filter]]** 
 + 
 +====Comparaison avant et après le filtre==== 
 +Réalisé avec window = 21 polyorder = 3 
 +<WRAP group> 
 +<WRAP half column> 
 +**Avant le filtre** 
 +{{:media_10:activ_2_geek_7_groupe_0.png?450|}} 
 +{{:media_10:activ_3_geek_10_groupe_2.png?450|}} 
 +</WRAP> 
 + 
 +<WRAP half column> 
 +**Après le filtre** 
 +{{:media_10:activ_2_geek_7_groupe_0_smooth_1.png?450|}} 
 +{{:media_10:activ_3_geek_10_groupe_2_smooth_1.png?450|}} 
 +</WRAP> 
 +</WRAP> 
 + 
 +====Après correction==== 
 +===Activité 1 : Working at Computer=== 
 +{{:media_10:activ_1_geek_2_groupe_0.png?180|}}{{:media_10:activ_1_geek_4_groupe_0.png?180|}}{{:media_10:activ_1_geek_6_groupe_0.png?180|}}{{:media_10:activ_1_geek_12_groupe_0.png?180|}}{{:media_10:activ_1_geek_13_groupe_0.png?180|}} 
 + 
 +===Activité 5: Going UpDown Stairs=== 
 +{{:media_10:activ_5_geek_5_groupe_0.png?180|}}{{:media_10:activ_5_geek_6_groupe_0.png?180|}}{{:media_10:activ_5_geek_7_groupe_0.png?180|}}{{:media_10:activ_5_geek_8_groupe_0.png?180|}}{{:media_10:activ_5_geek_9_groupe_0.png?180|}} 
 + 
 +===Activité 6: Walking and Talking with Someone=== 
 +{{:media_10:activ_2_geek_2_groupe_0.png?180|}}{{:media_10:activ_2_geek_4_groupe_0.png?180|}}{{:media_10:activ_2_geek_6_groupe_0.png?180|}}{{:media_10:activ_2_geek_8_groupe_0.png?180|}}{{:media_10:activ_2_geek_12_groupe_0.png?180|}} 
 +====Conclusion après analyse des courbes==== 
 +**Une seule personne a fait 15 fois le même parcours avec les mêmes activités**, en portant toujours le même accéléromètre.  
 + 
 +===== Apprentissage / Test avec les données nettoyées===== 
 +====Création des fichiers de données==== 
 +  * [[https://github.com/sergeLabo/activity/blob/main/create_clean_smooth_paquets.py|create_clean_smooth_paquets.py]] 
 + 
 +Par exemle, les paquets de 900 array de 3 soit: 
 +<code> 
 +[[1012 2047 3089] 
 +[1082 2077 3012] 
 +[1096 2055 3078] 
 +... 
 +900 fois 
 +...] 
 +</code> 
 +sont créés en décalant la 1ère valeur de "gliss" tous les paquets, gliss peut varier de 20 à la taille du paquet. 
 +{{ :media_11:glissant.png?400 |}} 
 +Avec gliss, le fichier de datas obtenu peut être très gros (quelques Giga Octects) et provoque un dépassement de mémoire dans Keras. Un bon compromis est entre 50 et 100. On transforme en fait des datas de 5 Mo en des datas de 50 Mo à quelques centaines de Mo. 
 + 
 +==== Apprentissage / Test ==== 
 +  * [[https://github.com/sergeLabo/activity/blob/main/main_keras_clean_smooth.py|main_keras_clean_smooth.py]] 
 + 
 +Les labels de sortie sont un array de shape=(32100, ) soit\\  
 +[ 0\\ 5\\ 4\\ 1\\ 2\\ 4\\ 6\\ ...] avec 32100 valeurs. 
 + 
 +Il faut ABSOLUMENT les transformer en vecteurs "one-hot" 
 + 
 +[ 1 0 0 0 0 0 0]\\ 
 +[ 0 0 0 1 0 0 0]\\ 
 +[ 0 0 0 0 1 0 0]\\ 
 +[ 0 0 0 0 0 0 0]\\ 
 +[ 0 0 1 0 0 0 0]\\ 
 +[ 0 1 0 0 0 0 0]\\ 
 +[ 0 0 0 0 0 0 1]\\ 
 +... jusqu'au 32100 ème 
 + 
 +===one-hot-encoding=== 
 +{{:media_11:label_endoding.jpeg?400|}} à [[https://medium.com/@michaeldelsole/what-is-one-hot-encoding-and-how-to-do-it-f0ae272f1179|medium.com/@michaeldelsole/]] 
 + 
 +Le one-hot-encoding est obtenu avec  
 +<code lang=python> 
 +train_label = utils.to_categorical(data["train_label"], 7) 
 +</code> 
 + 
 +====Build Model==== 
 +Inspiré de [[https://www.tensorflow.org/tutorials/keras/classification#build_the_model|www.tensorflow.org tutorials keras classification build_the_model]] 
 +et 
 +  * [[comment_configurer_le_nombre_de_couches_et_de_nœuds_dans_un_reseau_neuronal|Comment configurer le nombre de couches et de nœuds dans un réseau neuronal]] 
 +  * [[keras_input_explanation|Keras input explanation: input_shape, units, batch_size, dim, etc]] 
 + 
 +<code python> 
 +        # Choix du model 
 +        self.model = Sequential() 
 +        # Input layer 
 +        self.model.add(layers.Dense(units=4, input_shape=(self.PAQUET, 3))) 
 +        self.model.add(layers.Flatten()) 
 + 
 +        # Hidden layer 
 +        self.model.add(layers.Dense(64, activation='relu')) 
 + 
 +        # Output 
 +        self.model.add(layers.Dense(7, activation='softmax')) 
 +</code> 
 + 
 +====Compile Model==== 
 + 
 +<code python> 
 +        self.model.compile( loss=self.loss, 
 +                            optimizer=self.optimizer, 
 +                            metrics=self.metrics) 
 +                 
 +"loss": 'categorical_crossentropy',  # 'binary_crossentropy' ne va pas 
 +"optimizer": 'adam',  # 'SGD' ne change que peu 
 +"metrics": 'accuracy'               
 +</code> 
 +                             
 +                             
 +                             
 +====Résultats==== 
 +Les meilleurs 
 + 
 +{{:media_11:meilleurs_activity.png?800|}} 
 + 
 +mais aussi les plus mauvais 
 + 
 +{{:media_11:bad_activity.png?800|}} 
 + 
 +====Conclusion==== 
 +Les courbes d'une activité à l'autre sont ressemblantes, l'apprentissage ne peut pas pallier à ce fait. 
 +=====Construction de mon propre capteur===== 
 +====Application Android==== 
 +Pour Roulez Bourrez: création d'une application Android avec Kivy pour capter une marche de 10 secondes et en déduire l'alcoolémie. 
 +====Capture de datas pour l'apprentissage==== 
 +Des testeurs cobayes seront chargés de picoler, enregister les verres bus et capturer leur marche ! 
 + 
 +====Roulez Bourrez==== 
 +C'est le fameux projet: **[[roulez_bourrez|Roulez Bourrez]]** 
 + 
 +=====Vision artistique des datas d'apprentissage===== 
 +Du son et des images avec [[https://github.com/sergeLabo/activity/blob/main/paquet_to_image.py|paquet_to_image.py]] 
 +  sudo pip3 install opencv-python sounddevice 
 + 
 +{{ :media_01:activity_artist.png?700 |}} 
 +=====Autres idées===== 
 +La personne utilise son téléphone normalement, et ne change rien à ces habitudes. 
 +Pour créer les datas d'apprentissage, enregistrement en permanence de ACC (en optimisant au max), + un gadget en dehors du téléphone qui permet d'enregistrer le type d'activité.  
 + 
 +{{tag> ia keras python realisations_logicielles }}
activity_recognition_from_accelerometer_data_set.1601488691.txt.gz · Dernière modification : 2020/09/30 17:58 de serge