Ceci est une ancienne révision du document !
Table des matières
DialoGPT
Large-scale pretraining for dialogue
Ressources
- DialoGPT A State-of-the-Art Large-scale Pretrained Response Generation Model
The model is trained on 147M multi-turn dialogue from Reddit discussion thread.
On joue sur Nvidia 1060 GTX
Préalable
Il faut peut-être installer CUDA:
Par contre PyTorch Pretrained BERT est nécessaire: Google's pre-trained models The Big & Extending Repository of pretrained Transformers: PyTorch version of Google AI's BERT model with script to load Google's pre-trained models.
sudo pip3 install pytorch_pretrained_bert
DialoGPT2-Interact
git clone https://github.com/microsoft/DialoGPT.git
Script python supplémentaire récupéré à github.com/andreamad8 interact.py à coller dans les sources de DialoGPT
La première execution de cette commande télécharge les fichiers nécessaires (qq Go) du modèle medium
python3.6 interact.py --model_name_or_path ./models/medium --load_checkpoint ./models/medium/medium_ft.pkl --top_k 0
Ensuite, les relances suivantes ouvrent des prompts qui permettent de dialoguer avec l'IA.
Chat Bot sur IRC
Sur le serveur
- Les sources des fichiers à ajouter dans le dossier DialoGPT: dialogpt-irc sur github.com/sergeLabo
python3.6 main.py --model_name_or_path ./models/medium --load_checkpoint ./models/medium/medium_ft.pkl --top_k 0
Autres options possibles: (voir la fonction run_model())
- –top_k 1
- –max_history 5 # par défaut 2
- –gpu 1 # par défaut 0
- –max_seq_length 256 # par défaut 128
Test avec:
python3.6 main.py --model_name_or_path ./models/medium --load_checkpoint ./models/medium/medium_ft.pkl --top_k 0 --max_history 5 --gpu 1 --max_seq_length 128
–top_k 1 ne va pas du tout
Pour les clients
- Pour vous connecter à l'IRC, allez à https://kiwiirc.com/nextclient/
Comment envoyer un message au robot ?
Le message doit commencer par
TheGeneral: puis votre message en anglais !