comment_configurer_le_nombre_de_couches_et_de_nœuds_dans_un_reseau_neuronal
Différences
Ci-dessous, les différences entre deux révisions de la page.
Les deux révisions précédentesRévision précédenteProchaine révision | Révision précédente | ||
comment_configurer_le_nombre_de_couches_et_de_nœuds_dans_un_reseau_neuronal [2020/10/03 09:48] – [Introduction] serge | comment_configurer_le_nombre_de_couches_et_de_nœuds_dans_un_reseau_neuronal [2020/12/27 15:13] (Version actuelle) – serge | ||
---|---|---|---|
Ligne 1: | Ligne 1: | ||
====== Comment configurer le nombre de couches et de nœuds dans un réseau neuronal ====== | ====== Comment configurer le nombre de couches et de nœuds dans un réseau neuronal ====== | ||
+ | <WRAP center round box 60% centeralign> | ||
+ | **{{tagpage> | ||
+ | </ | ||
+ | <WRAP center round box 60% centeralign> | ||
+ | **[[les_pages_intelligence_artificielle_en_details|Les Pages Intelligence Artificielle en détails]]** | ||
+ | </ | ||
Traduction de **[[https:// | Traduction de **[[https:// | ||
+ | ====Ressources==== | ||
+ | * https:// | ||
+ | * **[[https:// | ||
=====Introduction===== | =====Introduction===== | ||
Les réseaux de neurones artificiels ont deux hyperparamètres principaux qui contrôlent l' | Les réseaux de neurones artificiels ont deux hyperparamètres principaux qui contrôlent l' | ||
Ligne 10: | Ligne 19: | ||
=====Aperçu===== | =====Aperçu===== | ||
- | Cet article est divisé en quatre sections; elles sont: | + | Cet article est divisé en quatre sections: |
- [[comment_configurer_le_nombre_de_couches_et_de_nœuds_dans_un_reseau_neuronal# | - [[comment_configurer_le_nombre_de_couches_et_de_nœuds_dans_un_reseau_neuronal# | ||
- [[comment_configurer_le_nombre_de_couches_et_de_nœuds_dans_un_reseau_neuronal# | - [[comment_configurer_le_nombre_de_couches_et_de_nœuds_dans_un_reseau_neuronal# | ||
Ligne 49: | Ligne 58: | ||
Un réseau neuronal monocouche ne peut être utilisé que pour représenter des fonctions linéairement séparables. Cela signifie des problèmes très simples où, par exemple, les deux classes d'un problème de classification peuvent être soigneusement séparées par une ligne. Si votre problème est relativement simple, peut-être qu'un réseau monocouche serait suffisant.\\ | Un réseau neuronal monocouche ne peut être utilisé que pour représenter des fonctions linéairement séparables. Cela signifie des problèmes très simples où, par exemple, les deux classes d'un problème de classification peuvent être soigneusement séparées par une ligne. Si votre problème est relativement simple, peut-être qu'un réseau monocouche serait suffisant.\\ | ||
La plupart des problèmes que nous souhaitons résoudre ne sont pas linéairement séparables. | La plupart des problèmes que nous souhaitons résoudre ne sont pas linéairement séparables. | ||
- | Un Perceptron multicouche peut être utilisé pour représenter des régions convexes. Cela signifie qu'en fait, ils peuvent apprendre à dessiner des formes autour d' | + | Un Perceptron multicouche peut être utilisé pour représenter des régions convexes. Cela signifie qu'en fait, ils peuvent apprendre à dessiner des formes autour d' |
- | En fait, il y a une découverte théorique de Lippmann dans l' | + | |
+ | ====En théorie==== | ||
+ | En fait, il y a une **découverte théorique de Lippmann dans l' | ||
Une autre découverte théorique et une preuve ont montré que les MLP sont des approximateurs universels . Avec une couche cachée, un MLP peut se rapprocher de n' | Une autre découverte théorique et une preuve ont montré que les MLP sont des approximateurs universels . Avec une couche cachée, un MLP peut se rapprocher de n' | ||
===Remarque=== | ===Remarque=== | ||
- | Plus précisément, | + | Plus précisément, |
====En pratique==== | ====En pratique==== | ||
- | Il s'agit d'une découverte théorique souvent citée et il existe une tonne de littérature à ce sujet. | + | En pratique, nous n' |
Même pour les fonctions qui peuvent être apprises via un MLP suffisamment grand à une couche cachée, il peut être plus efficace de l' | Même pour les fonctions qui peuvent être apprises via un MLP suffisamment grand à une couche cachée, il peut être plus efficace de l' | ||
Puisqu' | Puisqu' | ||
=====Combien de couches et de nœuds utiliser? | =====Combien de couches et de nœuds utiliser? | ||
- | Avec le préambule des MLP à l' | ||
Combien de couches devez-vous utiliser dans votre Perceptron multicouche et combien de nœuds par couche? | Combien de couches devez-vous utiliser dans votre Perceptron multicouche et combien de nœuds par couche? | ||
Dans cette section, nous énumérerons cinq approches pour résoudre ce problème.\\ | Dans cette section, nous énumérerons cinq approches pour résoudre ce problème.\\ | ||
Ligne 72: | Ligne 82: | ||
Le nombre de couches et le nombre de nœuds dans chaque couche sont des hyperparamètres de modèle que vous devez spécifier. | Le nombre de couches et le nombre de nœuds dans chaque couche sont des hyperparamètres de modèle que vous devez spécifier. | ||
Vous êtes probablement la première personne à tenter de résoudre votre problème spécifique avec un réseau neuronal. Personne ne l'a résolu avant vous. Par conséquent, | Vous êtes probablement la première personne à tenter de résoudre votre problème spécifique avec un réseau neuronal. Personne ne l'a résolu avant vous. Par conséquent, | ||
- | Vous devez découvrir la réponse en utilisant un harnais de test robuste et des expériences contrôlées. | + | Vous devez découvrir la réponse en utilisant un harnais de test robuste et des expériences contrôlées.\\ |
- | * Comment évaluer la compétence des modèles d' | + | |
Indépendamment de l' | Indépendamment de l' | ||
Ligne 81: | Ligne 90: | ||
Un modèle profond fournit une hiérarchie de couches qui construisent des niveaux d' | Un modèle profond fournit une hiérarchie de couches qui construisent des niveaux d' | ||
Étant donné une compréhension du domaine du problème, nous pouvons croire qu'un modèle hiérarchique profond est nécessaire pour résoudre suffisamment le problème de prédiction. Dans ce cas, nous pouvons choisir une configuration de réseau comportant de nombreuses couches de profondeur. | Étant donné une compréhension du domaine du problème, nous pouvons croire qu'un modèle hiérarchique profond est nécessaire pour résoudre suffisamment le problème de prédiction. Dans ce cas, nous pouvons choisir une configuration de réseau comportant de nombreuses couches de profondeur. | ||
- | Le choix d'un modèle profond encode une croyance très générale selon laquelle la fonction que nous voulons apprendre devrait impliquer la composition de plusieurs fonctions plus simples. Cela peut être interprété du point de vue de l' | + | Le choix d'un modèle profond encode une croyance très générale selon laquelle la fonction que nous voulons apprendre devrait impliquer la composition de plusieurs fonctions plus simples. Cela peut être interprété du point de vue de l' |
- | + | Cette intuition peut provenir de l' | |
- | Cette intuition peut provenir de l' | + | **D' |
- | D' | + | |
====Optez pour la profondeur==== | ====Optez pour la profondeur==== | ||
Ligne 111: | Ligne 119: | ||
* Ajustez les modèles sur un sous-ensemble plus petit de l' | * Ajustez les modèles sur un sous-ensemble plus petit de l' | ||
* Liez de manière agressive la taille de l' | * Liez de manière agressive la taille de l' | ||
- | * Parallélisez la recherche sur plusieurs instances de serveur | + | * Parallélisez la recherche sur plusieurs instances de serveur. |
Je recommande d' | Je recommande d' | ||
====Bonus==== | ====Bonus==== | ||
J'ai vu d' | J'ai vu d' | ||
- | Je ne veux pas les énumérer; Je suis sceptique sur le fait qu'ils ajoutent une valeur pratique au-delà des cas particuliers sur lesquels ils sont présentés.\\ | + | Je ne veux pas les énumérer. Je suis sceptique sur le fait qu'ils ajoutent une valeur pratique au-delà des cas particuliers sur lesquels ils sont présentés. |
- | Si ce domaine vous intéresse, commencez peut-être par la « Section 4.4 Capacité versus taille » dans le livre « Neural Smithing ». Il résume une tonne de découvertes dans ce domaine. Le livre est daté de 1999, il reste donc près de 20 ans d' | + | |
- | Voir également certaines des discussions liées dans la section Lectures complémentaires (ci-dessous).\\ | + | |
- | Ai-je manqué votre méthode préférée pour configurer un réseau neuronal? Ou connaissez-vous une bonne référence sur le sujet? \\ | + | |
- | Faites-moi savoir dans les commentaires ci-dessous.\\ | + | |
====Lectures complémentaires==== | ====Lectures complémentaires==== | ||
- | Cette section fournit plus de ressources sur le sujet si vous souhaitez approfondir. | + | Cette section fournit plus de ressources sur le sujet si vous souhaitez approfondir. |
- | Papiers | + | |
- | * Une introduction à l'informatique avec des réseaux de neurones , 1987. | + | |
- | * Combien de couches et de nœuds cachés? , 2009. | + | |
- | Livres | + | |
- | * Neural Smithing: Supervised Learning in Feedforward Artificial Neural Networks , 1999. | + | |
- | * Apprentissage profond , 2016. | + | |
- | Des articles | + | |
- | * Réseau de neurones artificiels sur Wikipedia | + | |
- | * Théorème d' | + | |
- | * Combien de couches cachées dois-je utiliser ?, FAQ comp.ai.neural-nets | + | |
- | Discussions | + | |
- | * Comment choisir le nombre de couches et de nœuds cachés dans un réseau de neurones à feedforward? | + | |
- | * Nombre de nœuds dans les couches cachées du réseau neuronal | + | |
- | * architecture de perceptron multicouche (MLP): critères de choix du nombre de couches cachées et de la taille de la couche cachée? | + | |
- | * En apprentissage profond, comment sélectionner le nombre optimal de couches et de neurones? | + | |
- | {{tag>sb ia}} | + | {{tag>sb ia keras}} |
comment_configurer_le_nombre_de_couches_et_de_nœuds_dans_un_reseau_neuronal.txt · Dernière modification : 2020/12/27 15:13 de serge