Large-scale pretraining for dialogue
Encore un truc Microsoft qui ne passe pas un test de Turing en 3 questions.
Seul point positif, il n'est pas raciste !
Une carte graphique n'est pas nécessaire.
The model is trained on 147M multi-turn dialogue from Reddit discussion thread.
Il faut installer CUDA si l'argument –gpu=1 est utilisé avec interact.py ou main.py de l'irc:
Par contre PyTorch Pretrained BERT est nécessaire: Google's pre-trained models The Big & Extending Repository of pretrained Transformers: PyTorch version of Google AI's BERT model with script to load Google's pre-trained models.
sudo pip3 install pytorch_pretrained_bert irc
~ 900Mo
python3 -m pip install pytorch_pretrained_bert irc --user
Bien sûr, installer ces packages dans un venv est une bien meilleure solution.
git clone https://github.com/microsoft/DialoGPT.git
Script python supplémentaire récupéré à github.com/andreamad8 interact.py à coller dans les sources de DialoGPT
La première execution de cette commande télécharge les fichiers nécessaires (2 Go) du modèle medium
python3 interact.py --model_name_or_path ./models/medium --load_checkpoint ./models/medium/medium_ft.pkl --top_k 0
Ensuite, les relances suivantes ouvrent des prompts qui permettent de dialoguer avec l'IA.
Options possibles: (voir la fonction run_model())
Test avec:
python3 main.py --model_name_or_path ./models/medium --load_checkpoint ./models/medium/medium_ft.pkl --top_k 0 --max_history 5 --gpu 1 --max_seq_length 128
server = "irc.libera.chat" port = 6667 channel = "#lalabomedia" nickname = "TheGeneral" realname = "IA Computer at The Prisoner"
Comment envoyer un message au robot ?
Le message doit avoir cette structure:
TheGeneral: puis votre message en anglais !