Outils pour utilisateurs

Outils du site


apprentissage_par_renforcement

Différences

Ci-dessous, les différences entre deux révisions de la page.

Lien vers cette vue comparative

Les deux révisions précédentesRévision précédente
Prochaine révision
Révision précédente
Prochaine révisionLes deux révisions suivantes
apprentissage_par_renforcement [2021/01/09 16:21] – [Baselines vs Stable-baselines vs Stable-baselines3] sergeapprentissage_par_renforcement [2021/01/09 17:36] – [Baselines vs Stable-baselines vs Stable-baselines3] serge
Ligne 76: Ligne 76:
     * MushroomRL     * MushroomRL
          
-====Frameworks possibles==== +=====Frameworks possibles===== 
-===Gym de OpenAI===+====Gym de OpenAI==== 
 +===OpenAI===
   * **[[https://openai.com/|openai.com]]**    * **[[https://openai.com/|openai.com]]** 
 [[https://fr.wikipedia.org/wiki/OpenAI|fr.wikipedia.org]] **OpenAI** est une entreprise à « but lucratif plafonné » en intelligence artificielle, basée à San Francisco. En 2019, OpenAI a reçu a 1 000 000 000 $ de Microsoft. OpenAi utilise le super Calculateur de Micro$ pour ses apprentissages.\\ Avant mars 2019, elle était reconnue association à but non lucratif. L'objectif de cette société était de promouvoir et développer une intelligence artificielle à visage humain qui bénéficierait à toute l'humanité. L'objectif actuel est de se faire des $. [[https://fr.wikipedia.org/wiki/OpenAI|fr.wikipedia.org]] **OpenAI** est une entreprise à « but lucratif plafonné » en intelligence artificielle, basée à San Francisco. En 2019, OpenAI a reçu a 1 000 000 000 $ de Microsoft. OpenAi utilise le super Calculateur de Micro$ pour ses apprentissages.\\ Avant mars 2019, elle était reconnue association à but non lucratif. L'objectif de cette société était de promouvoir et développer une intelligence artificielle à visage humain qui bénéficierait à toute l'humanité. L'objectif actuel est de se faire des $.
  
-  * https://en.wikipedia.org/wiki/OpenAI#Gym +===Gym=== 
-  * https://github.com/openai/gym +Gym is a toolkit for developing and comparing reinforcement learning algorithms. 
-  * http://gym.openai.com/docs/+  [[https://en.wikipedia.org/wiki/OpenAI#Gym|Gym]] @ en.wikipedia.org 
 +  * [[https://github.com/openai/gym|Gym]] @ github.com/openai 
 +  * [[http://gym.openai.com/docs/|Gym]] @ gym.openai.com/docs 
  
-===Tensorforce=== 
-  * [[https://github.com/tensorforce/tensorforce|Tensorforce: a TensorFlow library for applied reinforcement learning]] @ github.com/tensorforce 
  
-  sudo pip3 install tensorforce 
-  Successfully installed matplotlib-3.3.3 msgpack-1.0.2 msgpack-numpy-0.4.7.1 tensorboard-2.4.0 tensorflow-2.3.1 tensorflow-estimator-2.3.0 tensorforce-0.6.2 tqdm-4.55.0 
  
 ====Baselines vs Stable-baselines vs Stable-baselines3==== ====Baselines vs Stable-baselines vs Stable-baselines3====
Ligne 95: Ligne 95:
  
 ===Baselines=== ===Baselines===
-[[https://github.com/openai/baselines[Baselines]] est un projet OpenAI. Les dépendances sont anciennes, l'installation est quasi impossible et Stable-baselines est mieux!+[[https://github.com/openai/baselines|Baselines]] est un projet OpenAI. Les dépendances sont anciennes, l'installation est quasi impossible et Stable-baselines est mieux!
  
 ===Stable-baselines=== ===Stable-baselines===
apprentissage_par_renforcement.txt · Dernière modification : 2022/02/10 07:52 de serge