Outils pour utilisateurs

Outils du site


dialogpt

Ceci est une ancienne révision du document !


DialoGPT

Large-scale pretraining for dialogue

Ressources

  • DialoGPT A State-of-the-Art Large-scale Pretrained Response Generation Model

The model is trained on 147M multi-turn dialogue from Reddit discussion thread.

On joue sur Nvidia 1060 GTX

Préalable

Il faut peut-être installer CUDA:

Par contre PyTorch Pretrained BERT est nécessaire: Google's pre-trained models The Big & Extending Repository of pretrained Transformers: PyTorch version of Google AI's BERT model with script to load Google's pre-trained models.

sudo pip3 install pytorch_pretrained_bert

DialoGPT2-Interact

git clone https://github.com/microsoft/DialoGPT.git

Script python supplémentaire récupéré à github.com/andreamad8 interact.py à coller dans les sources de DialoGPT

La première execution de cette commande télécharge les fichiers nécessaires (qq Go) du modèle medium

python3.6 interact.py --model_name_or_path ./models/medium --load_checkpoint ./models/medium/medium_ft.pkl --top_k 0

Ensuite, les relances suivantes ouvrent des prompts qui permettent de dialoguer avec l'IA.

Chat Bot sur IRC

Sur le serveur

python3.6 main.py --model_name_or_path ./models/medium --load_checkpoint ./models/medium/medium_ft.pkl --top_k 0 

Autres options possibles: (voir la fonction run_model())

  • –top_k 1
  • –max_history 5 # par défaut 2
  • –gpu 1 # par défaut 0
  • –max_seq_length 256 # par défaut 128

Test avec:

python3.6 main.py --model_name_or_path ./models/medium --load_checkpoint ./models/medium/medium_ft.pkl --top_k 0 --max_history 5 --gpu 1 --max_seq_length 128

–top_k 1 ne va pas du tout

Pour les clients

Comment envoyer un message au robot ?
Le message doit commencer par

TheGeneral: puis votre message en anglais !
dialogpt.1588327120.txt.gz · Dernière modification : 2020/05/01 09:58 de serge