Outils pour utilisateurs

Outils du site


dialogpt

Différences

Ci-dessous, les différences entre deux révisions de la page.

Lien vers cette vue comparative

Les deux révisions précédentesRévision précédente
Prochaine révision
Révision précédente
Prochaine révisionLes deux révisions suivantes
dialogpt [2020/02/05 15:23] – [Test] sergedialogpt [2020/04/25 17:15] – [Test sur Nvidia 1060 GTX] serge
Ligne 7: Ligne 7:
 **Large-scale pretraining for dialogue** **Large-scale pretraining for dialogue**
 </WRAP> </WRAP>
- 
- 
  
 ===== Ressources ===== ===== Ressources =====
Ligne 14: Ligne 12:
   * **[[https://github.com/microsoft/DialoGPT|DialoGPT]]** A State-of-the-Art Large-scale Pretrained Response Generation Model   * **[[https://github.com/microsoft/DialoGPT|DialoGPT]]** A State-of-the-Art Large-scale Pretrained Response Generation Model
  
 +The model is trained on 147M multi-turn dialogue from **Reddit** discussion thread.
 +
 +=====Test sur Nvidia 1060 GTX=====
 +
 +  sudo pip3 install pytorch_pretrained_bert
 +Successfully installed boto3-1.12.46 botocore-1.15.46 jmespath-0.9.5 pytorch-pretrained-bert-0.6.2 regex-2020.4.4 s3transfer-0.3.3 torch-1.5.0 tqdm-4.45.0
 =====Installation===== =====Installation=====
 ====Installation de Conda==== ====Installation de Conda====
Ligne 55: Ligne 59:
 </code> </code>
  
 +erreur aussi avec:
   sudo apt install nvidia-container-runtime   sudo apt install nvidia-container-runtime
 +  sudo docker run nvidia/cuda:10.0-base nvidia-smi
    
-idem+A essayer: 
 + 
 +  docker run --gpus all --ipc=host --rm -it -v $PWD:/workspace --network=host icaruszyz/large-scale-training:dialogpt bash 
 + 
 +mais sans le --gpus all que docker run refuse 
  
 {{tag>ia python3 sb}} {{tag>ia python3 sb}}
dialogpt.txt · Dernière modification : 2021/09/03 05:39 de serge